home *** CD-ROM | disk | FTP | other *** search
/ Group 42-Sells Out! - The Information Archive / Group 42 Sells Out (Group 42) (1996).iso / internet / varian2.txt < prev    next >
Text File  |  1995-11-30  |  103KB  |  3,411 lines

  1.  
  2.  
  3.                                                          Preliminary Draft
  4.  
  5.                      Pricing  the  Internet
  6.  
  7.  
  8.                                        by
  9.  
  10.  
  11.                   Jeffrey  K.  MacKie-Mason
  12.  
  13.                              Hal  R.  Varian
  14.                          University of Michigan
  15.  
  16.  
  17.                                  April 1993
  18.                     Current version: June 14, 1993
  19.  
  20.  
  21. Abstract. This is a preliminary version of a paper prepared
  22. for  the  conference  ``Public  Access  to  the  Internet,''  JFK
  23. School  of  Government,  May  26--27  ,  1993.   We  describe
  24. some of the technology and costs relevant to pricing access to
  25. the Internet and suggest a possible smart-market mechanism
  26. for pricing traffic on the Internet.
  27. Keywords.  Networks, Internet, NREN.
  28. Address.  Hal R. Varian, Jeffrey K. MacKie-Mason, Depart-
  29. ment of Economics, University of Michigan, Ann Arbor, MI
  30. 48109-1220. E-mail: jmm@umich.edu, halv@umich.edu.
  31.  
  32.                              Pricing the Internet
  33.  
  34.                          Jeffrey K. MacKie-Mason
  35.                                  Hal R. Varian
  36.  
  37. On  December  23,  1992  the  National  Science  Foundation
  38.  
  39. announced  that  it  will  cease  funding  the  ANS  T3  Internet
  40.  
  41. backbone in the near future. This is a major step in the tran-
  42.  
  43. sition from a government-funded to a commercial Internet.
  44.  
  45. This movement has been welcomed by private providers of
  46.  
  47. telecommunication  services  and  businesses  seeking  access
  48.  
  49. to the Internet.
  50.  
  51.      We think that it is safe to say that no one is quite sure
  52.  
  53. about how this privatization effort will work.  In particular,
  54.  
  55. it is far from clear how access to the privatized Internet will
  56.  
  57. be priced. Currently, the several Internet backbone networks
  58.  
  59. are public goods with exclusion: usage is essentially free to
  60.  
  61. all authorized users. Most users are connected to a backbone
  62.  
  63. through a ``pipe'' for which a fixed access fee is charged,
  64.  
  65. but the user's organization nearly always covers the access
  66.  
  67. fee as overhead without any direct charge to the user.1   In
  68.  
  69. any case, none of the backbones charge for actual usage in
  70.  
  71. the sense of the volume of data transmitted.
  72.  
  73.      In this paper we describe some of the technological, cost,
  74.  
  75. and  economic  issues  related  to  pricing  the  Internet.   We
  76.  
  77. strongly suspect that efficiency will require usage pricing for
  78. _________________________________________
  79.  
  80.        We wish to thank Guy Almes,  Eric Aupperle,  Paul Green,  Mark
  81. Knopper,  Ken Latta,  Dave McQueeny,  Jeff Ogden,  Chris Parkin,  Scott
  82. Shenker and Paul Southworth for helpful discussions, advice and data.
  83.  
  84.   1  Most users of the NSFNET backbone do not pay a pipeline fee to ANS,
  85. the service provider, but instead pay for a connection to their ``regional'' or
  86. mid-level network, which then is granted a connection to the NSFNET.
  87.  
  88.  
  89.  
  90.                                        1
  91.  
  92. backbone services.  In order to do this, it will be necessary
  93.  
  94. to  develop  new  standards  for  TCP/IP  packets  in  order  to
  95.  
  96. facilitate  accounting  and  priority-based  routing.   We  offer
  97.  
  98. a proposal as to how access might be priced using a smart
  99.  
  100. market.
  101.  
  102.  
  103.  
  104. 1.  Internet Technology and Costs
  105.  
  106.  
  107. The Internet is a network of networks. In this paper we focus
  108.  
  109. on network backbones,  although most of our pricing ideas
  110.  
  111. apply  equally  well  to  mid-level  and  local  area  networks.
  112.  
  113. There  are  essentially  three  competing  backbones  for  the
  114.  
  115. Internet:   ANSnet,  PSInet  and  Alternet.   ANS  is  a  non-
  116.  
  117. profit  that  was  formed  in  1990  to  manage  the  publicly-
  118.  
  119. funded NSFNET for research and educational users. ANSnet
  120.  
  121. now  provides  the  virtual  backbone  service  for  NSFNET,
  122.  
  123. as well as backbone service for commercial users (through
  124.  
  125. its  subsidiary,  ANS  CO+RE,  Inc.).   PSInet  and  Alternet
  126.  
  127. are independent commercial providers of backbone Internet
  128.  
  129. services to both commercial and non-commercial users.
  130.  
  131.      The  Internet  is  defined  as  those  connected  networks
  132.  
  133. that  use  connectionless  packet-switching  communications
  134.  
  135. technology  based  on  the  TCP/IP  protocols.   Even  though
  136.  
  137. much of the traffic moves across lines leased from telephone
  138.  
  139. common carriers, the technology is quite different from the
  140.  
  141. switched  circuits  used  for  voice  telephony.   A  telephone
  142.  
  143. user dials a number and various switches then open a line
  144.  
  145. between the caller and the called number. This circuit stays
  146.  
  147. open  and  no  other  caller  can  share  the  line  until  the  call
  148.  
  149. is terminated.  A connectionless packet-switching network,
  150.  
  151. by contrast, uses statistical multiplexing to maximize use of
  152.  
  153.  
  154.                                        2
  155.  
  156. the communications lines.2   Each circuit is simultaneously
  157.  
  158. shared by numerous users, and no single open connection is
  159.  
  160. maintained for a particular communications session:  some
  161.  
  162. of the data may go by one route while the rest may take a
  163.  
  164. different route. Because of the technology differences pricing
  165.  
  166. models appropriate for voice telephony will be inappropriate
  167.  
  168. for data networks.
  169.  
  170.      Packet-switching technology has two major components:
  171.  
  172. packetization  and  dynamic  routing.  A  data  stream  from  a
  173.  
  174. computer is broken up into small chunks called ``packets.''
  175.  
  176. The  IP  (Internet  protocol)  specifies  how  to  break  up  a
  177.  
  178. datastream into packets and reassemble it, and also provides
  179.  
  180. the  necessary  information  for  various  computers  on  the
  181.  
  182. Internet (the routers) to move the packet to the next link on
  183.  
  184. the way to its final destination.
  185.  
  186.      Packetization  allows  for  the  efficient  use  of  expensive
  187.  
  188. communications lines. Consider a typical interactive terminal
  189.  
  190. session to a remote computer.  Most of the time the user is
  191.  
  192. thinking. The network is needed only after a key is struck or
  193.  
  194. when a reply is returned. Holding an open connection would
  195.  
  196. waste most of the capacity of the network link. Instead, the
  197.  
  198. computer  waits  until  after  a  key  is  struck,  at  which  point
  199.  
  200. it puts the keystroke information in a packet which is sent
  201.  
  202. across the network.  The rest of the time the network links
  203.  
  204. are free to be used for transporting packets from other users.
  205.  
  206.      With dynamic routing a packet's path across the network
  207.  
  208. is  determined  anew  for  each  packet  transmitted.   Because
  209.  
  210. multiple paths exist between most pairs of network nodes,
  211. _________________________________________
  212.   2  ``Connection-oriented'' packet-switching networks also exist:  X.25
  213. and Frame Relay are examples of such.
  214.  
  215.  
  216.  
  217.                                        3
  218.  
  219. it is quite possible that different packets will take different
  220.  
  221. paths through the network.3
  222.  
  223.      The postal service is a good metaphor for the technology
  224.  
  225. of  the  Internet  (Krol  (1992),  pp.  20--23).   A  sender  puts
  226.  
  227. a message into an envelope (packet),  and that envelope is
  228.  
  229. routed through a series of postal stations, each determining
  230.  
  231. where to send the envelope on its next hop.  No dedicated
  232.  
  233. pipeline is opened end-to-end, and thus there is no guarantee
  234.  
  235. that envelopes will arrive in the sequence they were sent, or
  236.  
  237. follow exactly the same route to get there.
  238.  
  239.      So that packets can be identified and reassembled in the
  240.  
  241. correct order, TCP packets consist of a header followed by
  242.  
  243. data.  The header contains the source and destination ports,
  244.  
  245. the sequence number of the packet, an acknowledgment flag,
  246.  
  247. and so on.  The header comprises 20 (or more) bytes of the
  248.  
  249. packet.
  250.  
  251.      Once  a  packet  is  built  TCP  sends  it  to  a  router,  a
  252.  
  253. computer that is in charge of sending packets on to their next
  254.  
  255. destination.  At this point IP tacks on another header (20 or
  256.  
  257. more bytes) containing source and destination addresses and
  258.  
  259. other information needed for routing the packet. The router
  260.  
  261. then calculates the best next link for the packet to traverse
  262.  
  263. towards  its  destination,  and  sends  it  on.    The  best  link
  264.  
  265. may change minute-by-minute, as the network configuration
  266.  
  267. changes.4  Routes can be recalculated immediately from the
  268. _________________________________________
  269.   3  Dynamic routing contributes to the efficient use of the communications
  270. lines, because routing can be adjusted to balance load across the network.
  271. The other main justification for dynamic routing is network reliability, since
  272. it gives each packet alternative routes to their destination should some links
  273. fail.  This was especially important to the military, which funded most of
  274. the early TCP/IP research to improve the ARPANET.
  275.  
  276.   4  Routing is based on a dynamic knowledge of which links are up and
  277.  
  278.  
  279.  
  280.                                        4
  281.  
  282. routing table if a route fails. The routing table in a switch is
  283.  
  284. updated approximately continuously.
  285.  
  286.      The data in a packet may be 1500 bytes or so. However,
  287.  
  288. recently the average packet on NSFNET carries about 200
  289.  
  290. bytes of data (packet size has been steadily increasing).  On
  291.  
  292. top of these 200 bytes the TCP/IP headers add about 40; thus
  293.  
  294. about  17%  of  the  traffic  carried  on  the  Internet  is  simply
  295.  
  296. header information.
  297.  
  298.      Over the past 5 years, the speed of the NSFNET backbone
  299.  
  300. has grown from 56 Kbps to 45 Mbps (``T-3'' service).5 These
  301.  
  302. lines can move data at a speed of 1,400 pages of text per
  303.  
  304. second; a 20-volume encyclopedia can be sent across the net
  305.  
  306. in half a minute. Many of the regional networks still provide
  307.  
  308. T1 (1.5Mbps) service, but these too, are being upgraded.
  309.  
  310.      The  transmission  speed  of  the  Internet  is  remarkably
  311.  
  312. high.  We recently tested the transmission delay at various
  313.  
  314. times of day and night for sending a packet to Norway. Each
  315.  
  316. packet traversed 16 links, and thus the IP header had to be
  317.  
  318. read and modified 16 times, and 16 different routers had to
  319.  
  320. calculate  the  best  next  link  for  the  transmission.   Despite
  321.  
  322. the  many  hops  and  substantial  packetization  and  routing
  323.  
  324. overhead, the longest delay on one representative weekday
  325.  
  326. was only 0.333 seconds (at 1:10 PM); the shortest delay was
  327.  
  328. 0.174 seconds (at 5:13 PM).
  329.  
  330. _________________________________________
  331. a static ``cost'' assigned to each link.  Currently routing does not take
  332. congestion into account. Routes can change when hosts are added or deleted
  333. from the network (including failures), which happens often with about 1
  334. million hosts and over 11,000 subnetworks.
  335.  
  336.   5  In fact, although the communications lines can transport 45 Mbps, the
  337. current network routers can support only 22.5 Mbps service.  ``Kbps'' is
  338. thousand (kilo) bits per second; ``Mbps'' is million (mega) bits per second.
  339.  
  340.  
  341.  
  342.                                        5
  343.  
  344. Current Backbone Network Costs
  345.  
  346.  
  347. The postal service is a good metaphor for packet-switching
  348.  
  349. technology,  but  a  bad  metaphor  for  the  cost  structure  of
  350.  
  351. Internet services. Most of the costs of providing the Internet
  352.  
  353. are  more-or-less  independent  of  the  level  of  usage  of  the
  354.  
  355. network; i.e., most of the costs are fixed costs. If the network
  356.  
  357. is  not  saturated  the  incremental  cost  of  sending  additional
  358.  
  359. packets is essentially zero.
  360.  
  361.      The NSF currently spends about $11.5 million per year
  362.  
  363. to operate the NSFNET and provides $7 million per year of
  364.  
  365. grants to help operate the regional networks.6  There is also
  366.  
  367. an NSF grant program to help colleges and universities to
  368.  
  369. connect to the NSFNET. Using the conservative estimate of
  370.  
  371. 1  million  hosts  and  10  million  users,  this  implies  that  the
  372.  
  373. NSF subsidy of the Internet is less than $20 per year per host,
  374.  
  375. and less than $2 per year per user.
  376.  
  377.      Total salaries and wages for NSFNET have increased by
  378.  
  379. a little more than one-half (about 68% nominal) over 1988-
  380.  
  381. -1991, during a time when the number of packets delivered
  382.  
  383. has increased 128 times.7  It is hard to calculate total costs
  384.  
  385. because  of  large  in-kind  contributions  by  IBM  and  MCI
  386.  
  387. during the initial years of the NSFNET project, but it appears
  388.  
  389. that  total  costs  for  the  128-fold  increase  in  packets  have
  390.  
  391. increased by a factor of about 3.2.
  392.  
  393.      Two  components  dominate  the  costs  of  providing  a
  394.  
  395. backbone network: communications lines and routers. Lease
  396. _________________________________________
  397.   6  The regional network providers generally set their charges to recover
  398. the remainder of their costs, but there is also some subsidization from state
  399. governments at the regional level.
  400.  
  401.   7  Since  packet  size  has  been  slowly  increasing,  the  amount  of  data
  402. transported has increased even more.
  403.  
  404.  
  405.  
  406.                                        6
  407.  
  408. payments for lines and routers accounted for nearly 80% of
  409.  
  410.  
  411. the 1992 NSFNET costs.  The only other significant cost is
  412.  
  413.  
  414. for the Network Operations Center (NOC), which accounts
  415.  
  416.  
  417. for roughly 7% of total cost.8   In our discussion we focus
  418.  
  419.  
  420. only on the costs of lines and routers.
  421.      We have estimated costs for the network backbone as of
  422.  
  423.  
  424. 1992--93.9  A T-3 (45 Mbps) trunk line running 300 miles
  425.  
  426.  
  427. between two metropolitan central stations can be leased for
  428.  
  429.  
  430. about  $32,000  per  month.   The  cost  to  purchase  a  router
  431.  
  432.  
  433. capable of managing a T-3 line is approximately $100,000.
  434.  
  435.  
  436. Assuming another $100,000 for service and operation costs,
  437.  
  438.  
  439. and 50-month amortization at a nominal 10% rate yields a
  440.  
  441.  
  442. rental cost of about $4900 per month for the router.
  443.  
  444. _________________________________________
  445.   8  A NOC monitors traffic flow at all nodes in the network and trou-
  446. bleshoots problems.
  447.   9  We estimated costs for the network backbone only, defined to be links
  448. between common carrier Points of Presence (POPs) and the routers that
  449. manage those links.  We did not estimate the costs for the feeder lines to
  450. the mid-level or regional networks where the data packets usually enter and
  451. leave the backbone, nor for the terminal costs of setting up the packets or
  452. tearing them apart at the destination.
  453.  
  454.  
  455.                                        7
  456.  
  457.  Table 1.
  458.  
  459.  Communications and Router Costs
  460.  
  461. _(Nominal_$_per_million_bits)1_________________________________________________*
  462.  *_______
  463.  
  464. __Year________Communications_____________Routers______Design_Throughput________*
  465.  *_______
  466.  
  467.   1960                         1.00                           2.4 kbps
  468.  
  469.   1962                                     10.00
  470.  
  471.   1963                         0.42                          40.8 kbps
  472.  
  473.   1964                         0.34                          50.0 kbps
  474.  
  475.   1967                         0.33                          50.0 kbps
  476.  
  477.   1970                                     0.168
  478.  
  479.   1971                                     0.102
  480.  
  481.   1974                         0.11        0.026             56.0 kbps
  482.  
  483. __1992____________________0.00094_______0.00007_______________45_mbps__________*
  484.  *_______
  485.  
  486.  
  487. Notes: 1. Costs are based on sending one million bits of data approximately
  488. 1200 miles on a path that traverses five routers.
  489. Sources:  1960--74 from Roberts (1974).  1992 calculated by the authors
  490. using data provided by Merit Network, Inc.
  491.  
  492.  
  493.      The costs of both communications and switching have
  494.  
  495. been dropping rapidly for over three decades. In the 1960s,
  496.  
  497. digital  computer  switching  was  more  expensive  (on  a  per
  498.  
  499. packet  basis)  than  communications  (Roberts  (1974)),  but
  500.  
  501. switching has become substantially cheaper since then.  We
  502.  
  503. have estimated the 1992 costs for transporting 1 million bits
  504.  
  505. of data through the NSFNET backbone and compare these
  506.  
  507. to estimates for earlier years in Table 1.  As can be seen, in
  508.  
  509. 1992 the line cost is about eight times as large as the cost of
  510.  
  511. routers.
  512.  
  513.      The topology of the NSFNET backbone directly reflects
  514.  
  515. the cost structure: lots of cheap routers are used to manage
  516.  
  517. a limited number of expensive lines. We illustrate a portion
  518.  
  519. of the network in Figure 1.  Each of the numbered squares
  520.  
  521. is an RS6000 router; the numbers listed beside a router are
  522.  
  523.  
  524.                                        8
  525.  
  526. links to regional networks. Notice that in general any packet
  527.  
  528. coming on to the backbone has to move through two separate
  529.  
  530. routers at the entry and exit node.  For example, a message
  531.  
  532. we  send  from  the  University  of  Michigan  to  a  scientist  at
  533.  
  534. Bell Laboratories will traverse link 131 to Cleveland, where
  535.  
  536. it passes through two routers (41 and 40). The packet goes to
  537.  
  538. New York, where it again moves through two routers (32 and
  539.  
  540. 33) before leaving the backbone on link 137 to the JVNCnet
  541.  
  542. regional  network  that  Bell  Labs  is  attached  to.   Two  T-3
  543.  
  544. communications links are navigated using four routers.
  545.  
  546.  
  547.  
  548.    /afs/umich.edu/user/h/a/halv/Shared/Figures/NetFrag.eps
  549.  
  550.  
  551. Figure 1. Network Topology Fragment
  552.  
  553. Technological and Cost Trends
  554.  
  555.  
  556. The decline in both communications link and switching costs
  557.  
  558. has been exponential at about 30% per year (see the semi-log
  559.  
  560.  
  561.                                        9
  562.  
  563. plot in Figure 2). But more interesting than the rapid decline
  564.  
  565. in costs is the change from expensive routers to expensive
  566.  
  567. transmission links. Indeed, it was the crossover around 1970
  568.  
  569. (Figure 2) that created a role for packet-switching networks.
  570.  
  571. When  lines  were  cheap  relative  to  switches  it  made  sense
  572.  
  573. to  have  many  lines  feed  into  relatively  few  switches,  and
  574.  
  575. to open an end-to-end circuit for each connection.  In that
  576.  
  577. way, each connection wastes transmission capacity (lines are
  578.  
  579. held open whether data is flowing or not) but economizes on
  580.  
  581. switching (one set-up per connection).
  582.  
  583.  
  584.  
  585.  /afs/umich.edu/user/h/a/halv/Shared/Figures/CommCost.eps
  586.  
  587. Figure  2.   Trends  in  costs  for  communications  links  and
  588.  
  589. routers.
  590.      When switches became cheaper than lines the network is
  591.  
  592. more efficient if data streams are broken into small packets
  593.  
  594. and sent out piecemeal, allowing the packets of many users
  595.  
  596. to share a single line. Each packet must be examined at each
  597.  
  598. switch along the way to determine its type and destination,
  599.  
  600. but this uses the relatively cheap switch capacity.  The gain
  601.  
  602.  
  603.                                        10
  604.  
  605. is that when one source is quiet, packets from other sources
  606.  
  607. use the same (relatively expensive) lines.
  608.  
  609.      Although the same reversal in switch and line costs oc-
  610.  
  611. curred for voice networks, circuit-switching is still the norm
  612.  
  613. for voice. Voice is not well-suited for packetization because
  614.  
  615. of variation in delivery delays, packet loss, and packet or-
  616.  
  617. dering.10   Voice customers will not tolerate these delays in
  618.  
  619. transmission (although some packetized voice applications
  620.  
  621. are beginning to emerge as transmission speed and reliability
  622.  
  623. increases, see (Anonymous (1986)) ).11
  624.  
  625.  
  626.  
  627. 2.  Congestion problems
  628.  
  629.  
  630. Another  aspect  of  cost  of  the  Internet  is  congestion  cost.
  631.  
  632. Although congestion costs are not paid for by the providers
  633.  
  634. of  network  services,  they  are  paid  for  by  the  users  of  the
  635.  
  636. service.   Time  spent  by  users  waiting  for  a  file  transfer
  637.  
  638. is  a  social  cost,  and  should  be  recognized  as  such  in  any
  639.  
  640. economic accounting.
  641.  
  642.      The  Internet  experienced  severe  congestion  problems
  643.  
  644. in  1987.    Even  now  congestion  problems  are  relatively
  645.  
  646. common in parts of the Internet (although not currently on
  647.  
  648. the T-3 backbone). According to Kahin (1992): ``However,
  649.  
  650. problems  arise  when  prolonged  or  simultaneous  high-end
  651. _________________________________________
  652.  10  Our tests found packet delays ranging between 156 msec and 425 msec
  653. on a trans-Atlantic route (N=2487 traces, standard deviation = 24.6 msec).
  654. Delays were far more variable to a Nova Scotia site: the standard deviation
  655. was 340.5 msec when the mean delay was only 226.2 msec (N=2467); the
  656. maximum delay was 4878 msec.
  657.  
  658.  11  The reversal in link and switch costs has had a profound effect on voice
  659. networks. Indeed, Peter Huber has argued that this reversal made inevitable
  660. the breakup of ATT (Huber (1987)). He describes the transformation of the
  661. network from one with long lines all going into a few central offices into
  662. a web of many switches with short lines interconnecting them so that each
  663. call could follow the best path to its destination.
  664.  
  665.  
  666.  
  667.                                        11
  668.  
  669. uses start degrading service for thousands of ordinary users.
  670.  
  671. In  fact,  the  growth  of  high-end  use  strains  the  inherent
  672.  
  673. adaptability of the network as a common channel.''  (page
  674.  
  675. 11.)   It  is  apparent  that  contemplated  uses,  such  as  real-
  676.  
  677. time video and audio transmission, would lead to substantial
  678.  
  679. increases in the demand for bandwidth and that congestion
  680.  
  681. problems  will  only  get  worse  in  the  future  unless  there  is
  682.  
  683. substantial increase in bandwidth:
  684.  
  685.           If  a  single  remote  visualization  process  were
  686.      to  produce  100  Mbps  bursts,  it  would  take  only  a
  687.      handful  of  users  on  the  national  network  to  gener-
  688.      ate  over  1Gbps  load.   As  the  remote  visualization
  689.      services move from three dimensions to [animation]
  690.      the  single-user  bursts  will  increase  to  several  hun-
  691.      dred  Mbps  : : :Only  for  periods  of  tens  of  minutes
  692.      to several hours over a 24-hour period are the high-
  693.      end requirements seen on the network.  With these
  694.      applications, however, network load can jump from
  695.      average to peak instantaneously.'' Smarr and Catlett
  696.      (1992), page 167.
  697.  
  698.  
  699. There are cases where this has happened. For example dur-
  700.  
  701. ing  the  weeks  of  November  9  and  16,  1992,  some  packet
  702.  
  703. audio/visual broadcasts caused severe delay problems, espe-
  704.  
  705. cially at heavily-used gateways to the NSFNET backbone,
  706.  
  707. and in several mid-level networks.
  708.  
  709.      To investigate the nature of congestion on the Internet
  710.  
  711. we timed the delay in delivering packets to seven different
  712.  
  713. sites  around  the  world.    We  ran  our  test  hourly  for  37
  714.  
  715. days  during  February  and  March,  1993.   Deliveries  can
  716.  
  717. be delayed for a number of reasons other than congestion-
  718.  
  719. induced  bottlenecks.   For  example,  if  a  router  fails  then
  720.  
  721. packets  must  be  resent  by  a  different  route.   However,  in
  722.  
  723. a  multiply-connected  network,  the  speed  of  rerouting  and
  724.  
  725.  
  726.                                        12
  727.  
  728.   delivery of failed packets measures one aspect of congestion,
  729.  
  730.   or the scarcity of the network's delivery bandwidth.
  731.  
  732.        Our results are summarized in Figure 3 and Figure 4; we
  733.  
  734.   present the results only from four of the 24 hourly probes.
  735.  
  736.   Figure 3 shows the average and maximum delivery delays by
  737.  
  738.   time of day.  Average delays are not always proportional to
  739.  
  740.   distance: the delay from Michigan to New York University
  741.  
  742.   was  generally  longer  than  to  Berkeley,  and  delays  from
  743.  
  744.   Michigan to Nova Scotia, Canada, were often longer than to
  745.  
  746.   Oslo, Norway.
  747.  
  748.  
  749.  
  750. /afs/umich.edu/user/h/a/halv/Shared/Figures/DelayAvgMax.eps
  751.  
  752.  
  753.   Figure 3.  Maximum and Average Transmission Delays on
  754.  
  755.   the Internet
  756.                                          13
  757.  
  758. /afs/umich.edu/user/h/a/halv/Shared/Figures/DelayStdDev.eps
  759.  
  760.  
  761.  Figure 4. Variability in Internet Transmission Delays
  762.  
  763.  
  764.       There  is  substantial  variability  in  Internet  delays.   For
  765.  
  766.  example, the maximum and average delays in Figure 3 are
  767.  
  768.  quite different by time of day.  There appears to be a large
  769.  
  770.  4PM peak problem on the east coast for packets to New York
  771.  
  772.  and Nova Scotia, but much less for ATT Bell Labs (in New
  773.  
  774.  Jersey).12  The time-of-day variation is also evident in Figure
  775.  
  776.  5, borrowed from Claffy, Polyzos, and Braun (1992).13
  777.  
  778.       Figure 4 shows the standard deviation of delays by time
  779.  
  780.  of  day  for  each  destination.    The  delays  to  Canada  are
  781.  
  782.  extraordinarily variable, yet the delays to Oslo have no more
  783.  
  784.  variability  than  does  transmission  to  New  Jersey  (ATT).
  785.  _________________________________________
  786.   12  The high maximum delay for the University of Washington at 4PM is
  787.  correct, but appears to be aberrant. The maximum delay was 627 msec; the
  788.  next two highest delays (in a sample of over 2400) were about 250 msecs
  789.  each.  After dropping this extreme outlier, the University of Washington
  790.  looks just like UC Berkeley.
  791.  
  792.   13  Note that the Claffy et al. data were for the old, congested T-1 network.
  793.  We reproduce their figure to illustrate the time-of-day variation in usage;
  794.  the actual levels of link utilization are generally much lower in the current
  795.  T-3 backbone. Braun and Claffy (1993) show time-of-day variations in T-3
  796.  traffic between the US and three other countries in their Figure 5.
  797.  
  798.  
  799.  
  800.                                         14
  801.  
  802.  
  803.  
  804.  /afs/umich.edu/user/h/a/halv/Shared/Figures/UsageTOD.eps
  805. Figure 5.  Utilization of Most Heavily Used Link in Each
  806.  
  807. Fifteen Minute Interval (Claffy et al. (1992))
  808.  
  809.  
  810. Variability in delay fluctuates widely across times of day, as
  811.  
  812. we would expect in a system with bursty traffic, but follows
  813.  
  814. no obvious pattern.
  815.  
  816.      According  to  Kleinrock  (1992),  ``One  of  the  least  un-
  817.  
  818. derstood aspects of today's networking technology is that of
  819.  
  820. network  control,  which  entails  congestion  control,  routing
  821.  
  822. control, and bandwidth access and allocation.''  We expect
  823.  
  824. that if access to Internet bandwidth continues to be provided
  825.  
  826. at  a  zero  cost  there  will  inevitably  be  congestion.   Essen-
  827.  
  828. tially,  this  is  the  classic  problem  of  the  commons:  unless
  829.  
  830. the congestion externality is priced, there will inevitably be
  831.  
  832. inefficient use of the common resource. As long as users face
  833.  
  834. a zero price for access, they will continue to ``overgraze.''
  835.  
  836. Hence, it makes sense to consider how networks such as the
  837.  
  838. Internet should be priced.
  839.  
  840.      There is a large literature on network congestion control;
  841.  
  842.  
  843.                                        15
  844.  
  845. see Gerla and Kleinrock (1988) for an overview.  However,
  846.  
  847. there is very little work in using pricing for congestion con-
  848.  
  849. trol. Cocchi, Estrin, Shenker, and Zhang (1992) and Shenker
  850.  
  851. (1993) make the important point that if different applications
  852.  
  853. use different types of network services (responsiveness, re-
  854.  
  855. liability, throughput, etc.), then it will be necessary to have
  856.  
  857. some  sort  of  pricing  to  sort  out  users'  demands  for  these
  858.  
  859. characteristics. These papers lay out the problem in general
  860.  
  861. and describe how it might be solved.
  862.  
  863.      Faulhaber (1992) has considered some of the economic
  864.  
  865. issues related to pricing access to the Internet.  He suggests
  866.  
  867. that  ``transactions  among  institutions  are  most  efficiently
  868.  
  869. based on capacity per unit time. We would expect the ANS
  870.  
  871. to  charge  mid-level  networks  or  institutions  a  monthly  or
  872.  
  873. annual  fee  that  varied  with  the  size  of  the  electronic  pipe
  874.  
  875. provided  to  them.   If  the  cost  of  providing  the  pipe  to  an
  876.  
  877. institution were higher than to a mid-level network : : :the
  878.  
  879. fee would be higher.''
  880.  
  881.      Faulhaber's suggestion makes sense for a dedicated line--
  882.  
  883. -e.g., a line connecting an institution to the Internet backbone.
  884.  
  885. But  we  don't  think  that  it  is  necessarily  appropriate  for
  886.  
  887. charging for backbone traffic itself.  The reason is that the
  888.  
  889. bandwidth on the backbone is inherently a shared resource-
  890.  
  891. --many packets ``compete'' for the same bandwidth.  There
  892.  
  893. is an overall constraint on capacity, but there are is no such
  894.  
  895. thing as individual capacity level on the backbone.14
  896. _________________________________________
  897.  14  Although  it  may  be  true  that  an  institution's  use  of  the  backbo*
  898.  *ne
  899. bandwidth is more-or-less proportional to the bandwidth of its connection
  900. to the backbone.   That is,  the size of an institution's dedicated line to
  901. the backbone may be a good signal of its intended usage of the common
  902. backbone.
  903.  
  904.  
  905.  
  906.                                        16
  907.  
  908.      Although  we  agree  that  it  is  appropriate  to  charge  a
  909.  
  910. flat  fee  for  connection  to  the  network,  we  also  think  that
  911.  
  912. it  is  important  to  charge  on  a  per  packet  basis,  at  least
  913.  
  914. when the network is congested.  After all,  during times of
  915.  
  916. congestion the scarce resource is bandwidth for additional
  917.  
  918. packets.15   The problem with this proposal is the overhead,
  919.  
  920. or, in economics terms, the transactions cost. If one literally
  921.  
  922. charged for each individual packet,  it would be extremely
  923.  
  924. costly  to  maintain  adequate  records.   However,  given  the
  925.  
  926. astronomical units involved there should be no difficulty in
  927.  
  928. basing  charges  on  a  statistical  sample  of  the  packets  sent.
  929.  
  930. Furthermore, accounting can be done in parallel to routing
  931.  
  932. using much less expensive computers.
  933.  
  934.      Conversely  when  the  network  is  not  congested  there
  935.  
  936. is  very  small  marginal  cost  of  sending  additional  packets
  937.  
  938. through  the  routers.   It  would  therefore  be  appropriate  to
  939.  
  940. charge users a very small price for packets when the system
  941.  
  942. is not congested.
  943.  
  944.      There  has  been  substantial  recent  work  on  designing
  945.  
  946. mechanisms for usage accounting on the Internet.  The In-
  947.  
  948. ternet  Accounting  Working  Group  has  published  a  draft
  949.  
  950. architecture for Internet usage reporting (Internet Account-
  951.  
  952. ing: Usage Reporting Architecture, July 9, 1992 draft). ANS
  953.  
  954. has  developed  a  usage  sampling  and  reporting  system  it
  955.  
  956. calls  COMBits.   COMBits  was  developed  to  address  the
  957.  
  958. need  to  allocate  costs  between  government-sponsored  re-
  959.  
  960. search and educational use, and commercial usage, which is
  961. _________________________________________
  962.  15  As we have already pointed out the major bottleneck in backbone
  963. capacity is not the bandwidth of the medium itself, but the switch technology.
  964. We use the term bandwidth to refer to the overall capacity of the network.
  965.  
  966.  
  967.  
  968.                                        17
  969.  
  970. rapidly growing. COMBits collects an aggregate measure of
  971.  
  972. packets and bytes usage,  using a statistical sampling tech-
  973.  
  974. nique.16  However, COMBits only collects data down to the
  975.  
  976. network-to-network level of source and destination.  Thus,
  977.  
  978. the resulting data can only be used to charge at the level of the
  979.  
  980. subnetwork;  the local network administrator is responsible
  981.  
  982. for splitting up the bill (Ruth and Mills (1992)).17
  983.  
  984.      Braun and Claffy (1993) describe current traffic patterns
  985.  
  986. of  the  Internet  by  type  of  application  and  by  international
  987.  
  988. data flows, and discuss some of the accounting issues that
  989.  
  990. need to be solved.
  991.  
  992.  
  993.  
  994. Existing support for prioritizing packets
  995.  
  996.  
  997. IP  packets  contain  fields  known  Precedence  and  Type  of
  998.  
  999. Service (TOS). Currently, most commercial routers do not
  1000.  
  1001. use  these  fields.18   However,  it  is  widely  anticipated  that
  1002.  
  1003. this must change due to increased congestion on the Internet:
  1004.  
  1005. ``An obvious application would be to allow router and host
  1006.  
  1007. configuration to limit traffic entering the internet to be above
  1008.  
  1009. some specific precedence. Such a mechanism could be used
  1010.  
  1011. to reduce traffic on an internet as often as needed under crisis
  1012.  
  1013. conditions'' (Cerf (1993)).
  1014.  
  1015.      The  current  interpretations  of  these  fields  described  in
  1016.  
  1017. Postel (1981) will probably be changed to the more flexible
  1018. _________________________________________
  1019.  16  See K. Claffy and Polyzos (1993) for a detailed study of sampling
  1020. techniques for measuring network usage.
  1021.  
  1022.  17  COMBits has been plagued by problems and resistance and currently
  1023. is used by almost none of the mid-level networks.
  1024.  
  1025.  18  In 1986 the NSFNET experienced severe congestion and the there was
  1026. some experimentation with routing based on the IP precedence field and
  1027. the type of application. When the NSFNET was upgraded to T1 capacity,
  1028. priority queuing was abandoned for end-user traffic.
  1029.  
  1030.  
  1031.  
  1032.                                        18
  1033.  
  1034. form  described  in  Almquist  (1992).    Almquist  discusses
  1035.  
  1036. only the TOS fields,  and proposes that the user be able to
  1037.  
  1038. request that the network should minimize delay, maximize
  1039.  
  1040. throughput, maximize reliability, or minimize monetary cost
  1041.  
  1042. when delivering the packet. Prototype algorithms to provide
  1043.  
  1044. such service are described in Prue and Postel (1988). In this
  1045.  
  1046. proposed protocol a router looks up the destination address
  1047.  
  1048. and  examines  the  possible  routes.   Each  route  has  a  TOS
  1049.  
  1050. number.  If the TOS number of the route matches the TOS
  1051.  
  1052. number of the datagram, then that route is chosen. Note that
  1053.  
  1054. the TOS numbers must match;  inequality relationships are
  1055.  
  1056. not allowed.
  1057.  
  1058.      To an economist's eye,  this specification seems some-
  1059.  
  1060. what  inflexible.   In  particular,  the  TOS  value  ``minimize
  1061.  
  1062. monetary cost'' seems somewhat strange. Of course senders
  1063.  
  1064. would want to minimize monetary cost for a given quality
  1065.  
  1066. of service:  minimizing monetary cost is an objective, not a
  1067.  
  1068. constraint. Also, the fact that TOS numbers do not allow for
  1069.  
  1070. inequality relations is strange. Normally, one would think of
  1071.  
  1072. specifying the amount that one would be willing to pay for
  1073.  
  1074. delivery, with the implicit assumption that any less expensive
  1075.  
  1076. service (other things being equal) would be better.
  1077.  
  1078.      As Almquist (1992) explains, ``There was considerable
  1079.  
  1080. debate over what exactly this value [minimize monetary cost]
  1081.  
  1082. should mean.'' However, he goes on to say:
  1083.  
  1084.           ``It seems likely that in the future users may need
  1085.      some  mechanism  to  express  the  maximum  amount
  1086.      they  are  willing  to  pay  to  have  a  packet  delivered.
  1087.      However, an IP option would be a more appropriate
  1088.      mechanism,  since  there  are  precedents  for  having
  1089.      IP  options  that  all  routers  are  required  to  honor,
  1090.      and  an  IP  option  could  include  parameters  such  as
  1091.  
  1092.  
  1093.                                        19
  1094.  
  1095.      the  maximum  amount  the  user  was  willing  to  pay.
  1096.      Thus,  the  TOS  value  defined  in  this  memo  merely
  1097.      requests that the network ``minimize monetary cost.''
  1098.      Almquist (1992)
  1099.  
  1100.  
  1101.      Currently there is much discussion in the network com-
  1102.  
  1103. munity about what forms of pricing should become part of
  1104.  
  1105. the Internet protocol. As Estrin (1989) puts it: ``The Internet
  1106.  
  1107. community developed its original protocol suite with only
  1108.  
  1109. minimal provision for resource control : : :This time it would
  1110.  
  1111. be inexcusable to ignore resource control requirements and
  1112.  
  1113. not to pay careful attention to their specification.''
  1114.  
  1115.  
  1116.  
  1117. 3.  General observations on pricing
  1118.  
  1119.  
  1120. The  Internet  uses  scarce  resources.   Telecommunications
  1121.  
  1122. lines,  computer  equipment,  and  labor  are  not  free;  if  not
  1123.  
  1124. employed by the Internet, they could be put to productive use
  1125.  
  1126. in other activities. Bandwidth is also scarce: when the back-
  1127.  
  1128. bone is congested, one user's packet crowds out another's,
  1129.  
  1130. resulting in dropped or delayed transmissions.  Economics
  1131.  
  1132. is concerned with ways to allocate scarce resources among
  1133.  
  1134. competing uses, and it is our belief that economics will be
  1135.  
  1136. useful in allocating Internet resources as well.
  1137.  
  1138.      We are not concerned with pricing the Internet to generate
  1139.  
  1140. profits from selling backbone services.  Indeed,  a network
  1141.  
  1142. need not be private to be priced; governments are perfectly
  1143.  
  1144. capable  of  charging  prices.19    Rather,  our  goal  is  to  find
  1145.  
  1146. pricing  mechanisms  that  lead  to  the  most  efficient  use  of
  1147.  
  1148. existing resources, and that guide investment decisions in an
  1149.  
  1150. appropriate manner.
  1151. _________________________________________
  1152.  19  In  fact,  many  of  the  mid-level  regional  networks  are  government
  1153. agencies, and they charge prices to connect organizations to their networks.
  1154.  
  1155.  
  1156.  
  1157.                                        20
  1158.  
  1159.      One common resource allocation mechanism is random-
  1160.  
  1161. ization: each packet has an equal chance of getting through
  1162.  
  1163. (or being dropped). Another allocation scheme is first-come,
  1164.  
  1165. first-served: all packets are queued as they arrive and if the
  1166.  
  1167. network  is  congested,  every  packet  suffers  a  delay  based
  1168.  
  1169. on its arrival time in the queue.  It is easy to see why these
  1170.  
  1171. schemes are not good ways to achieve efficiency.20  However
  1172.  
  1173. one measures the social value of expeditious delivery for a
  1174.  
  1175. packet,  it  will  surely  be  true  that  some  packets  are  worth
  1176.  
  1177. more than others.  For example, a real-time video transmis-
  1178.  
  1179. sion  of  a  heart  operation  to  a  remote  expert  may  be  more
  1180.  
  1181. valuable than a file transfer of a recreational game or picture.
  1182.  
  1183. Economic efficiency will be enhanced if the mechanism al-
  1184.  
  1185. locating scarce bandwidth gives higher priority to uses that
  1186.  
  1187. are more socially valuable.
  1188.  
  1189.      We  do  not  want  the  service  provider---government  or
  1190.  
  1191. otherwise---to decide which packets are more socially valu-
  1192.  
  1193. able and allocate scarce bandwidth accordingly.  We know
  1194.  
  1195. from the Soviet experience that allowing bureaucrats to de-
  1196.  
  1197. cide whether work shoes or designer jeans are more valuable
  1198.  
  1199. is a deeply flawed mechanism.  A price mechanism works
  1200.  
  1201. quite differently. The provider knows the costs of providing
  1202.  
  1203. services  and  can  announce  these  to  the  users;  users  then
  1204.  
  1205. can decide for themselves whether their packets are more or
  1206.  
  1207. less valuable than the cost of providing the packet transport
  1208.  
  1209. service. When the backbone is congested the cost of service
  1210.  
  1211. will be high due to the the cost of crowding out or delaying
  1212.  
  1213. the packets of other users; if prices reflect costs only those
  1214. _________________________________________
  1215.  20  Current backbones use a mix of queuing and random dropping as their
  1216. mechanisms for allocating congested capacity.
  1217.  
  1218.  
  1219.  
  1220.                                        21
  1221.  
  1222. packets with high value will be sent until congestion dimin-
  1223.  
  1224. ishes. The users themselves decide how valuable each packet
  1225.  
  1226. is, and sort out for themselves which packets are serviced (or
  1227.  
  1228. in a multiple service quality network, receive which quality
  1229.  
  1230. of service; see Shenker (1993)).
  1231.  
  1232.      Furthermore,  if  network  congestion  is  properly  priced,
  1233.  
  1234. the revenues collected from the congestion surcharges can
  1235.  
  1236. be used to fund further capacity expansion.  Under certain
  1237.  
  1238. conditions,  the  fees  collected  from  the  congestion  charges
  1239.  
  1240. turn out to be just the ``right'' amount to spend on expanding
  1241.  
  1242. capacity. We return to this point below.
  1243.  
  1244.      One commonly expressed concern about pricing the In-
  1245.  
  1246. ternet is that ``poor'' users will be deprived of access.  This
  1247.  
  1248. is not a problem with pricing,  but with the distribution of
  1249.  
  1250. wealth.   A  pricing  mechanism  determines  how  the  scarce
  1251.  
  1252. bandwidth  will  be  allocated  given  the  preferences  and  re-
  1253.  
  1254. sources of the users.  If we wish to ensure that certain users
  1255.  
  1256. have sufficient resources to purchase a base level of services
  1257.  
  1258. then we can redistribute initial resources, say by providing
  1259.  
  1260. vouchers or lump sum grants.21
  1261.  
  1262.      Universal access and a base endowment of usage for all
  1263.  
  1264. citizens---if desired---can be provided through vouchers or
  1265.  
  1266. other  redistribution  schemes.   But  for  a  given  distribution
  1267.  
  1268. of  resources,  how  should  backbone  services  be  allocated?
  1269.  
  1270. They are currently allocated (among paid-up subscribers) on
  1271. _________________________________________
  1272.  21  Food stamps are an example of such a scheme. The federal government
  1273. more or less ensures that everyone has sufficient resources to purchase a
  1274. certain amount of food. But food is priced, so that given one's wealth plus
  1275. food stamps, the consumer still must decide how to allocate scarce resources
  1276. relative to the costliness of providing those resources. The government does
  1277. not guarantee unlimited access to foodstuffs, nor to all varieties of caloric
  1278. substances (alcoholic beverages are not eligible).
  1279.  
  1280.  
  1281.  
  1282.                                        22
  1283.  
  1284. the basis of randomization and first-come,  first-served.  In
  1285.  
  1286. other words, users are already paying the costs of congestion
  1287.  
  1288. through delays and lost packets.  A pricing mechanism will
  1289.  
  1290. convert delay and queuing costs into dollar costs.  If prices
  1291.  
  1292. are designed to reflect the costs of providing the services,
  1293.  
  1294. they will force the user to compare the value of her packets
  1295.  
  1296. to the costs she is imposing on the system.  Allocation will
  1297.  
  1298. then be on the basis of the value of the packets, and the total
  1299.  
  1300. value of service provided by the backbones will be greater
  1301.  
  1302. than under a non-price allocation scheme.
  1303.  
  1304.      In  the  rest  of  the  paper  we  discuss  how  one  might
  1305.  
  1306. implement pricing that reflects the cost (including congestion
  1307.  
  1308. costs)  of  providing  backbone  services.   We  begin  with  a
  1309.  
  1310. review of some current pricing schemes and their relationship
  1311.  
  1312. to costs.
  1313.  
  1314.  
  1315.  
  1316. 4.  Current Pricing Mechanisms
  1317.  
  1318.  
  1319. NSFNET,  the  primary  backbone  network  of  the  Internet,
  1320.  
  1321. has been paid for by the NSF, IBM, MCI and the State of
  1322.  
  1323. Michigan until the present.22  However, most organizations
  1324.  
  1325. do not connect directly to the NSFNET. A typical university
  1326.  
  1327. will  connect  to  its  regional  mid-level  network;  the  mid-
  1328.  
  1329. level maintains a connection to the NSFNET. The mid-level
  1330.  
  1331. networks (and a few alternative backbone networks) charge
  1332.  
  1333. their customers for access.
  1334.  
  1335.      There  are  dozens  of  companies  that  offer  connections
  1336.  
  1337. to the Internet.  Most large organizations obtain direct con-
  1338.  
  1339. nections,  which  use  a  leased  line  that  permits  unlimited
  1340. _________________________________________
  1341.  22  NSF restricts the use of the backbone to traffic with a research or
  1342. educational purpose, as defined in the Acceptable Use Policies.
  1343.  
  1344.  
  1345.  
  1346.                                        23
  1347.  
  1348. usage subject to the bandwidth of the line. Some customers
  1349.  
  1350.  
  1351. purchase ``dial-up'' service which provides an intermittent
  1352.  
  1353.  
  1354. connection, usually at much lower speeds.  We will discuss
  1355.  
  1356.  
  1357. only direct connections below.
  1358.  
  1359.      Table 3 summarizes the prices offered to large universi-
  1360.  
  1361.  
  1362. ties by ten of the major providers for T-1 access (1.5 mbps).23
  1363.  
  1364.  
  1365. There are three major components: an annual access fee, an
  1366.  
  1367.  
  1368. initial connection fee and in some cases a separate charge
  1369.  
  1370.  
  1371. for the customer premises equipment (a router to serve as
  1372.  
  1373.  
  1374. a  gateway  between  the  customer  network  and  the  Internet
  1375.  
  1376.  
  1377. provider's network).24  The current annualized total cost per
  1378.  
  1379.  
  1380. T-1 connection is about $30--35,000.
  1381.  
  1382.  
  1383. _________________________________________
  1384.  23  The  fees  for  some  providers  are  dramatically  lower  due  to  public
  1385. subsidies.
  1386.  
  1387.  24  Customers will generally also have to pay a monthly ``local loop''
  1388. charge to a telephone company for the line between the customer's site and
  1389. the Internet provider's ``point of presence'' (POP), but this charge depends
  1390. on mileage and will generally be set by the telephone company, not the
  1391. Internet provider.
  1392.  
  1393.  
  1394.  
  1395.                                        24
  1396.  
  1397.  
  1398.  
  1399.  
  1400.      All of the providers use the same type of pricing: annual
  1401.  
  1402. fee  for  unlimited  access,  based  on  the  bandwidth  of  the
  1403.  
  1404. connection.   This  is  the  type  of  pricing  recommended  by
  1405.  
  1406. Faulhaber (1992).  However, these pricing schemes provide
  1407.  
  1408. no incentives to flatten peak demands, nor any mechanism for
  1409.  
  1410. allocating network bandwidth during periods of congestion.
  1411.  
  1412. It  would  be  relatively  simple  for  a  provider  to  monitor  a
  1413.  
  1414. customer's usage and bill by the packet or byte. Monitoring
  1415.  
  1416. requires only that the outgoing packets be counted at a single
  1417.  
  1418. point: the customer's gateway router.
  1419.  
  1420.      However,  pricing  by  the  packet  would  not  necessarily
  1421.  
  1422. increase the efficiency of network service provision, because
  1423.  
  1424. the  marginal  cost  of  a  packet  is  nearly  zero.  As  we  have
  1425.  
  1426. shown, the important scarce resource is bandwidth, and thus
  1427.  
  1428.  
  1429.                                        25
  1430.  
  1431. efficient prices need to reflect the current state of the network.
  1432.  
  1433. Neither a flat price per packet nor even time-of-day prices
  1434.  
  1435. would come very close to efficient pricing.
  1436. 5.  Matching prices to costs
  1437.  
  1438.  
  1439.  
  1440. In general we want the prices that users face to reflect the
  1441.  
  1442. resource  costs  that  they  generate  so  that  they  can  make
  1443.  
  1444. intelligent decisions about resource utilization. In the case of
  1445.  
  1446. the Internet, there are several costs that might be considered:
  1447.  
  1448.  
  1449.  
  1450.   o  The fixed costs of providing the network infrastruc-
  1451.  
  1452.      ture.  As we have seen this is basically the rent for the
  1453.  
  1454.      line, the cost of the routers, and the salary for the support
  1455.  
  1456.      staff.
  1457.  
  1458.  
  1459.   o  The  incremental  costs  of  sending  extra  packets.   If
  1460.  
  1461.      the network is not congested, this is essentially zero.
  1462.  
  1463.  
  1464.   o  The social costs of delaying other users' packets when
  1465.  
  1466.      the network is congested. This is not directly a resource
  1467.  
  1468.      cost, but should certainly be considered part of the social
  1469.  
  1470.      cost of a packet.
  1471.  
  1472.  
  1473.   o  The cost of expanding capacity of the network. This
  1474.  
  1475.      will normally consist of adding new routers, new lines,
  1476.  
  1477.      and new staff.
  1478.  
  1479.  
  1480.      We  first  consider  how  ideal  prices  would  incorporate
  1481.  
  1482. this cost information, then consider how market-based prices
  1483.  
  1484. might work.
  1485.                                        26
  1486.  
  1487. The incremental costs of sending extra packets.
  1488.  
  1489.  
  1490. The price of sending a packet in a non-congested network
  1491.  
  1492. should be close to zero; any higher price is socially inefficient
  1493.  
  1494. since  it  does  not  reflect  the  true  incremental  costs.    If
  1495.  
  1496. the  incremental  cost  is  high  enough  to  justify  the  cost  of
  1497.  
  1498. monitoring and billing, it should be charged as a per-packet
  1499.  
  1500. cost.25
  1501. The social costs of delaying other users' packets when the
  1502.  
  1503. network is congested.
  1504.  
  1505.  
  1506. The  price  for  sending  a  packet  when  the  network  is  in  a
  1507.  
  1508. congested state should be positive:  if my packet precludes
  1509.  
  1510. (or delays) another user's packet, then I should face the cost
  1511.  
  1512. that I impose on the other user. If my packet is more valuable
  1513.  
  1514. than hers, then it should be sent; if hers is more valuable than
  1515.  
  1516. mine, then hers should be sent.
  1517.  
  1518.      We  can  depict  the  logic  of  this  argument  graphically
  1519.  
  1520. using demand and supply curves.  Suppose the packet price
  1521.  
  1522. were very high;  then only a few users would want to send
  1523.  
  1524. packets.  As the packet price decreases,  more users would
  1525.  
  1526. be willing to send more packets. We depict this relationship
  1527.  
  1528. between price and the demand for network access in Figure
  1529.  
  1530. 6. If the network capacity is some fixed amount K, then the
  1531.  
  1532. optimal price for access is where the demand curve crosses
  1533.  
  1534. the capacity supply. If demand is small relative to capacity,
  1535.  
  1536. the efficient price is zero---all users are admitted. If demand
  1537.  
  1538. _________________________________________
  1539.  25  Note  that  much  of  the  necessary  monitoring  and  billing  cost  may
  1540. already be incurred to implement our other pricing proposals.
  1541.                                        27
  1542.  
  1543.  
  1544.  
  1545.    /afs/umich.edu/user/h/a/halv/Shared/Figures/Demand.eps
  1546.  
  1547.  
  1548.  
  1549. Figure 6.  Demand for network access with fixed capacity.
  1550.  
  1551. When demand is low, the packet price is low. When demand
  1552.  
  1553. is high, the packet price is high.
  1554.  
  1555.  
  1556. is high, users that are willing to pay more than the price of
  1557.  
  1558. admission to the network are admitted; the others are not.
  1559.  
  1560.      This analysis applies for the extreme case where there is
  1561.  
  1562. a fixed capacity.  If increase in use by some agents imposes
  1563.  
  1564. delay on other agents, but not outright exclusion, the analysis
  1565.  
  1566. is slightly different.  Suppose that we know the amount of
  1567.  
  1568. delay as a function of number of packets, and that we have
  1569.  
  1570. some idea of the costs imposed on users by a given amount of
  1571.  
  1572. delay. Then we can calculate a relationship between number
  1573.  
  1574. of packets sent and delay costs. The relevant magnitude for
  1575.  
  1576. determining the optimal number of users is the marginal cost
  1577.  
  1578. of delay, as depicted in Figure 7.
  1579.  
  1580.      The efficient price is where the marginal willingness to
  1581.  
  1582. pay for an additional packet just covers the marginal increase
  1583.  
  1584. in delay costs generated by that packet.  If a potential user
  1585.  
  1586. faces this price he will be able to compare his own benefit
  1587.  
  1588. from sending a packet to the marginal delay costs that this
  1589.  
  1590. imposes on other users.
  1591.  
  1592.  
  1593.  
  1594.                                        28
  1595.  
  1596.  
  1597.  
  1598. /afs/umich.edu/user/h/a/halv/Shared/Figures/DemandSupply.eps
  1599.  
  1600.  
  1601.  
  1602.   Figure 7.  Demand for network access with a marginal cost
  1603.  
  1604.   of delay. When demand is low, the packet price is low. When
  1605.  
  1606.   demand is high, and congestion is high, the packet price is
  1607.  
  1608.   high.
  1609.  
  1610.  
  1611.   The cost of expanding capacity of the network.
  1612.  
  1613.  
  1614.   If the network usage never reaches capacity, even at a zero
  1615.  
  1616.   price of packets, then clearly there is no need for expanding
  1617.  
  1618.   capacity. It is only appropriate to expand capacity when the
  1619.  
  1620.   network is sometimes congested.  Consider first the model
  1621.  
  1622.   with fixed capacity. If the packet prices are set correctly, we
  1623.  
  1624.   have seen that they measure the marginal value of the last
  1625.  
  1626.   admitted packet.  If the cost of expanding capacity enough
  1627.  
  1628.   to accommodate one more packet is less than the marginal
  1629.  
  1630.   value of that packet, then it makes economic sense to expand
  1631.  
  1632.   capacity.   If  this  condition  is  not  satisfied,  then  capacity
  1633.  
  1634.   expansion is not economically worthwhile.
  1635.  
  1636.  
  1637.        Hence the optimal congestion prices play a two roles---
  1638.  
  1639.   they serve to efficiently ration access to the network in times
  1640.  
  1641.   of congestion and they send the correct signals with respect
  1642.  
  1643.   to capacity expansion.  In this framework, all the revenues
  1644.  
  1645.  
  1646.                                          29
  1647.  
  1648. generated by congestion prices should be plowed back into
  1649.  
  1650. capacity expansion.
  1651.  
  1652.      Note  that  only  the  users  who  want  to  use  the  network
  1653.  
  1654. when  it  is  at  capacity  pay  for  capacity  expansion.   Users
  1655.  
  1656. who  are  willing  to  wait  until  after  the  demand  peak  do
  1657.  
  1658. not pay anything towards expanding network capacity.  We
  1659.  
  1660. think that this point is important from a political perspective.
  1661.  
  1662. The largest constituency of the Internet apparently is e-mail
  1663.  
  1664. users.26  A proposal to charge high prices for e-mail is likely
  1665.  
  1666. to  be  politically  infeasible.   However,  e-mail  can  usually
  1667.  
  1668. tolerate moderate delays.  Under congestion pricing of the
  1669.  
  1670. sort we are describing, e-mail users could put a low or zero
  1671.  
  1672. bid price on their traffic, and would continue to face a very
  1673.  
  1674. low cost.
  1675.  
  1676.      The situation is only slightly different in the case of delay
  1677.  
  1678. costs.  Here the price measures the marginal benefit of an
  1679.  
  1680. additional  packet  (which  is  equal  to  the  marginal  cost  of
  1681.  
  1682. delay); if additional investment can reduce the marginal cost
  1683.  
  1684. of  delay  by  more  than  the  willingness-to-pay  for  reduced
  1685.  
  1686. delay then it should be undertaken, otherwise it should not.
  1687.  
  1688. We examine the analytics of pricing a congested network in
  1689.  
  1690. the Appendix 1.  It turns out that essentially the same result
  1691.  
  1692. holds: if the packet price is chosen to be optimal with respect
  1693.  
  1694. to delay and congestion costs it will be the appropriate price
  1695.  
  1696. to use for determining whether capacity should be expanded.
  1697.  
  1698. _________________________________________
  1699.  26  More traffic is generated by file transfers, but this reflects fewer users
  1700. sending bigger data streams (files vs. e-mail messages).
  1701.                                        30
  1702.  
  1703. The fixed costs of providing the network infrastructure.
  1704.  
  1705.  
  1706. Think  of  the  initial  investment  in  network  infrastructure
  1707.  
  1708. as  a  discrete  decision:   if  you  pay  a  certain  amount  of
  1709.  
  1710. money  you  can  create  a  usable  network  of  minimal  size.
  1711.  
  1712. Further expansion can be guided by the congestion prices,
  1713.  
  1714. as indicated above. But what criterion can be used to decide
  1715.  
  1716. whether the initial investment is warranted?
  1717.  
  1718.      The  simple  answer  is  that  the  investment  should  be
  1719.  
  1720. undertaken  if  total  benefits  exceed  costs.   But  since  the
  1721.  
  1722. existence  of  the  network  is  a  public  good  that  provides
  1723.  
  1724. benefits for all users, we have to add up all potential users'
  1725.  
  1726. willingnesses-to-pay for the network infrastructure, and see
  1727.  
  1728. if this total willingness-to-pay exceeds the cost of provision.
  1729.  
  1730.      In the case of a computer network like the Internet, it is
  1731.  
  1732. natural to think of paying for the network infrastructure via
  1733.  
  1734. a flat access fee.  Each party who connects to the network
  1735.  
  1736. pays a flat price for network access distinct from the usage
  1737.  
  1738. based fee described earlier.  In general,  these connect fees
  1739.  
  1740. will be different for different people, since different people
  1741.  
  1742. and institutions will value connection to the net differently.
  1743.  
  1744. Note that in general efficiency will require some sort of price
  1745.  
  1746. discrimination in connect fees;  but it will also require that
  1747.  
  1748. users pay the same prices for congestion fees.
  1749.  
  1750.  
  1751.      In  summary:  there  are  four  types  of  costs  associated
  1752.  
  1753. with providing a broad-based computer network: 1) the fixed
  1754.  
  1755. costs of providing initial infrastructure; 2) the marginal costs
  1756.  
  1757. of sending packets when the network is not congested;  3)
  1758.  
  1759. the congestion costs of sending packets when the network is
  1760.  
  1761. congested; 4) the costs of expanding capacity.  An efficient
  1762.  
  1763. pricing mechanism will have a structure that is parallel to
  1764.  
  1765.  
  1766.                                        31
  1767.  
  1768. this cost structure: 1) a fixed connection charge that differs
  1769.  
  1770. from  institution  to  institution;  2)  a  packet  charge  close  to
  1771.  
  1772. zero when the network is not congested; 3) a positive packet
  1773.  
  1774. charge when the network is congested; 4) the packet charge
  1775.  
  1776. revenues  can  then  be  used  to  guide  capacity  expansion
  1777.  
  1778. decisions.
  1779.  
  1780.  
  1781.  
  1782. 6.  Implementing prices
  1783.  
  1784.  
  1785. We  have  argued  that  prices  should  reflect  costs.   But  we
  1786.  
  1787. have not yet considered how these efficient prices should be
  1788.  
  1789. implemented. We turn now to that task.
  1790.  
  1791.      The connect charges are the easiest to deal with,  since
  1792.  
  1793. that is very much like the current methods of charging for
  1794.  
  1795. provision. Each customer pays a flat fee for connection; often
  1796.  
  1797. this fee will depend on the characteristics of the customer
  1798.  
  1799. (educational, commercial) and on the size of the bandwidth of
  1800.  
  1801. the connection. Presumably the bandwidth of the connection
  1802.  
  1803. purchased by a user is correlated to some degree with the
  1804.  
  1805. user's willingness to pay, so this should serve as a reasonable
  1806.  
  1807. characteristic upon which to base connect charges.27
  1808.  
  1809.      A zero cost of packet charges when the network is not
  1810.  
  1811. congested is not hard to arrange either---that's what we have
  1812.  
  1813. now.  The novel part of the pricing mechanism we propose
  1814.  
  1815. is  the  per  packet  congestion  charge.   We  have  discussed
  1816.  
  1817. how one might implement such a fee in MacKie-Mason and
  1818.  
  1819. Varian  (1993).   We  briefly  review  that  proposal  here.   In
  1820.  
  1821. Appendix 2 we describe some of the details that would be
  1822.  
  1823. necessary to implement a smart market.
  1824. _________________________________________
  1825.  27  We intend to investigate how a profit-maximizing or welfare-maximizing
  1826. provider of network access might price discriminate in connect fees in future
  1827. work.
  1828.  
  1829.  
  1830.  
  1831.                                        32
  1832.  
  1833.      If congestion has a regular pattern with respect to time of
  1834.  
  1835. day, or day of week, then prices could vary in a predictable
  1836.  
  1837. way over time. However, this is a relatively inflexible form
  1838.  
  1839. for pricing. We think that it would be better to use a ``smart
  1840.  
  1841. market'':  a  price  for  packet  access  to  the  net  that  varies
  1842.  
  1843. minute-by-minute to reflect the current state of the network
  1844.  
  1845. congestion.
  1846.  
  1847.      This  would  not  be  terribly  difficult  to  implement,  at
  1848.  
  1849. least in a minimal form.  Each packet would have a ``bid''
  1850.  
  1851. field in the header that would indicate the willingness-to-pay
  1852.  
  1853. for that packet.  Users would typically set default bids for
  1854.  
  1855. various applications, then override these defaults in special
  1856.  
  1857. circumstances.  For example, a user might assign a low bid
  1858.  
  1859. to e-mail packets, for which immediate access to the net is
  1860.  
  1861. usually not required. Real-time audio or visual data might be
  1862.  
  1863. assigned a high bid price. The network would then admit all
  1864.  
  1865. packets whose bid exceeded some cutoff amount. The cutoff
  1866.  
  1867. amount  is  determined  by  the  condition  that  the  marginal
  1868.  
  1869. willingness-to-pay for an additional packet has to equal the
  1870.  
  1871. marginal congestion costs imposed by that packet.
  1872.  
  1873.      A  novel  feature  of  this  kind  of  smart  market  is  that
  1874.  
  1875. users do not pay the price that they actually bid; rather they
  1876.  
  1877. pay  for  their  packets  at  the  market-clearing  price,  which
  1878.  
  1879. by construction will be lower than the bids of all admitted
  1880.  
  1881. packets.   Note  how  this  is  different  from  priority-pricing
  1882.  
  1883. by  say,  the  post  office.  In  the  post-office  model  you  pay
  1884.  
  1885. for first-class mail even if there is enough excess capacity
  1886.  
  1887. that  second-class  mail  could  move  at  the  same  speed.   In
  1888.  
  1889. the smart market described here,  a user pays at most their
  1890.  
  1891. willingness-to-pay for an additional packet.
  1892.  
  1893.  
  1894.                                        33
  1895.  
  1896.      The smart market has many desirable features.  By con-
  1897.  
  1898. struction  the  outcome  is  the  classic  supply-equals-demand
  1899.  
  1900. level  of  service  of  which  economists  are  so  fond.28    The
  1901.  
  1902. equilibrium  price,  at  any  point  in  time,  is  the  bid  of  the
  1903.  
  1904. marginal user. Each infra-marginal user is charged this price,
  1905.  
  1906. so each infra-marginal user gets positive consumer surplus
  1907.  
  1908. from his or her purchase.
  1909.  
  1910.      The  major  differences  from  the  textbook  demand  and
  1911.  
  1912. supply  story  is  that  no  iteration  is  needed  to  determine
  1913.  
  1914. the  market-clearing  price---the  market  is  cleared  as  soon
  1915.  
  1916. as  the  users  have  submitted  their  bids  for  access.29    This
  1917.  
  1918. mechanism can be viewed as a Vickrey auction where the n
  1919.  
  1920. highest bidders gain access at the n + 1st highest price bid.30
  1921.      We  have  assumed  that  the  bid-price  set  by  the  users
  1922.  
  1923. accurately  reflects  the  true  willingness-to-pay.  One  might
  1924.  
  1925. well ask whether users have the correct incentives to reveal
  1926.  
  1927. this value: is there anything to be gained by trying to ``fool''
  1928.  
  1929. the smart market?  It turns out that the answer is ``no.''  It
  1930.  
  1931. can be shown that it is a dominant strategy in the Vickrey
  1932.  
  1933. auction to bid your true value, so users have no incentive to
  1934.  
  1935. misprepresent their bids for network access. By the nature of
  1936. _________________________________________
  1937.  28  For good reason, we might add.
  1938.  
  1939.  
  1940.  29  Of course,  in real time operation,  one would presumably cumulate
  1941. demand over some time interval.   It is an interesting research issue to
  1942. consider how often the market price should be adjusted. The bursty nature
  1943. of Internet activity suggests a fairly short time interval. However, if users
  1944. were charged for the congestion cost of their usage, it is possible that the
  1945. bursts would be dampened.
  1946.  
  1947.  30  Waldspurger,  Hogg,  Huberman,  Kephart,  and Stornetta (1992) de-
  1948. scribes some (generally positive) experiences in using this kind of ``second-
  1949. bid'' auction to allocate network resources. However, they do not examine
  1950. network access itself, as we are proposing here.
  1951.  
  1952.  
  1953.  
  1954.                                        34
  1955.  
  1956. the auction, you are assured that you will never be charged
  1957.  
  1958. more  than  this  amount  and  normally  you  will  be  charged
  1959.  
  1960. much less.
  1961.  
  1962.  
  1963.  
  1964. 7.  Remarks about the smart market solution
  1965. Who sets the bids?
  1966.  
  1967.  
  1968. We expect that choice of bids would be done by three parties:
  1969.  
  1970. the local administrator who controls access to the net,  the
  1971.  
  1972. user  of  the  computer,  and  the  computer  software  itself.
  1973.  
  1974. An organization with limited resources, for example, might
  1975.  
  1976. choose  low  bid  prices  for  all  sorts  of  access.  This  would
  1977.  
  1978. mean that they may not have access during peak times, but
  1979.  
  1980. still would have access during off-peak periods.31
  1981.  
  1982.      Within  any  limits  imposed  by  institution  policies,  the
  1983.  
  1984. users  could  then  set  priority  values  for  their  own  usage.
  1985.  
  1986. Normally,  users would set default values in their software
  1987.  
  1988. for  different  services.   For  example,  file  transfers  might
  1989.  
  1990. have lower priority than e-mail, e-mail would be lower than
  1991.  
  1992. telnet (terminal sessions), telnet would be lower than audio,
  1993.  
  1994. and so on.  The user could override these default values to
  1995.  
  1996. express his own preferences---if he was willing to pay for
  1997.  
  1998. the increased congestion during peak periods.
  1999.  
  2000.      Note that this access control mechanism only guarantees
  2001.  
  2002. relative  priority,  not  absolute  priority.   A  packet  with  a
  2003. _________________________________________
  2004.  31  With bursty traffic, low-priority packets at ``peak time'' might experi-
  2005. ence only moderate delays before getting through. This is likely to be quite
  2006. different from the telephone analogue of making customers wait until after
  2007. 10PM to obtain low-priority, low-rate service. The average length of delays
  2008. for low-priority traffic will depend on the average level of excess capacity
  2009. in the system. One advantage of our scheme is that it correctly signals the
  2010. efficient level of capacity to maintain.
  2011.  
  2012.  
  2013.  
  2014.                                        35
  2015.  
  2016. high bid is guaranteed access sooner than a low bid, but no
  2017.  
  2018. absolute guarantees of delivery time can be made.32  Rejected
  2019.  
  2020. packets could be bounced back to the users, or be routed to
  2021.  
  2022. a slower network, possibly after being stored for a period in
  2023.  
  2024. a buffer in case the permitted priority level falls sufficiently
  2025.  
  2026. a short time later.
  2027.  
  2028.  
  2029.  
  2030. Offline accounting
  2031.  
  2032.  
  2033. If the smart market system is used with the sampling system
  2034.  
  2035. suggested  earlier  the  accounting  overhead  doesn't  have  to
  2036.  
  2037. slow things down much since it can be done in parallel. All
  2038.  
  2039. the router has to do is to compare the bid of a packet with the
  2040.  
  2041. current value of the cutoff.  The accounting information on
  2042.  
  2043. every 1000th  packet, say, is sent to a dedicated accounting
  2044.  
  2045. machine  that  determines  the  equilibrium  access  price  and
  2046.  
  2047. records  the  usage  for  later  billing.33   However,  such  sam-
  2048.  
  2049. pling  would  require  changes  in  current  router  technology.
  2050.  
  2051. Such accounting may well prove expensive.  NSFNET has
  2052.  
  2053. modified routers to collect sampled usage data; they found
  2054.  
  2055. that the cost of the monitoring system is significant.
  2056.  
  2057.  
  2058.  
  2059. Network stability
  2060.  
  2061.  
  2062. Adding  bidding  for  priority  to  the  routing  system  should
  2063.  
  2064. help  maintain  network  stability,  since  the  highest  priority
  2065.  
  2066. packets  should  presumably  be  the  packets  sent  between
  2067. _________________________________________
  2068.  32  It is hard to see how absolute guarantees can be made on a connec-
  2069. tionless network.  However, there have been proposals to provide hybrid
  2070. networks, with some connection-oriented services in parallel to the connec-
  2071. tionless services. Connection-oriented services are well-suited for delivery
  2072. guarantees.
  2073.  
  2074.  33  We don't discuss the mechanics of the billing system here. Obviously,
  2075. there is a need for COD, third-party pricing, and other similar services.
  2076.  
  2077.  
  2078.  
  2079.                                        36
  2080.  
  2081. routers that indicate the state of the network. These network
  2082.  
  2083. ``traffic cops'' could displace ordinary packets so as to get
  2084.  
  2085. information through the system as quickly as possible.
  2086.  
  2087.      In fact, administrative information currently moves though
  2088.  
  2089. the  network  at  a  higher  priority  than  regular  traffic.   This
  2090.  
  2091. allows the administrators to update routing tables, etc.  in a
  2092.  
  2093. more timely manner. The fact that such prioritized routing is
  2094.  
  2095. already in place, albeit in a limited form, indicates that it is
  2096.  
  2097. at least feasible to consider extending the prioritization to a
  2098.  
  2099. broader set of users.
  2100.  
  2101.  
  2102. Fluctuations in the spot market price
  2103.  
  2104.  
  2105. Many readers have been unhappy with the idea that the price
  2106.  
  2107. of bandwidth would fluctuate in the smart market system. It
  2108.  
  2109. is felt by some that having predictable prices and budgets is
  2110.  
  2111. important to users. We have several responses to this set of
  2112.  
  2113. issues. First, everything depends on how much expenditures
  2114.  
  2115. fluctuate.   If  prices  and  uses  of  the  network  turn  out  to
  2116.  
  2117. be relatively predictable, expenditures would fluctuate very
  2118.  
  2119. little.   Enterprises  have  little  difficulty  now  dealing  with
  2120.  
  2121. fluctuations in postage, electricity, and telephone bills from
  2122.  
  2123. month to month, and there is no reason to expect that network
  2124.  
  2125. usage would be different.
  2126.  
  2127.      Second,  it  is  important  to  remember  that  in  the  smart
  2128.  
  2129. market, prices only fluctuation down. The user (or the user's
  2130.  
  2131. application) sets the maximum he or she is willing to pay for
  2132.  
  2133. network access; the actual price paid will almost always be
  2134.  
  2135. less than this.  Furthermore,  the user should have virtually
  2136.  
  2137. instantaneous feedback about the current state of his or her
  2138.  
  2139. expenditures, so there should be little difficulty in budgetary
  2140.  
  2141. control.
  2142.  
  2143.  
  2144.                                        37
  2145.  
  2146.      Finally, the most important point that we need to make
  2147.  
  2148. is that the price set by the smart market is a ``wholesale''
  2149.  
  2150. price,  not necessarily a ``retail'' price.  If a particular user
  2151.  
  2152. doesn't want to bear the risk of price fluctuations, he or she
  2153.  
  2154. can always contract with another party who is willing to bear
  2155.  
  2156. that  risk.   This  party  may  be  the  supplier  of  the  network
  2157.  
  2158. service, or it may be a third party.
  2159.  
  2160.      For example, consider an extreme case where the network
  2161.  
  2162. price  has  significant  fluctuations:  the  price  for  an  hour  of
  2163.  
  2164. teleconferencing at a particular time of day could be $200
  2165.  
  2166. or could be $50. A third party could offer to sell bandwidth
  2167.  
  2168. to anyone demanding it at, say, $100 an hour.  If the price
  2169.  
  2170. turned out to be $50, the bandwidth reseller would make a
  2171.  
  2172. profit;  if  it  turned  out  to  be  $200,  the  bandwidth  reseller
  2173.  
  2174. would make a loss. But the purchaser would pay a flat $100
  2175.  
  2176. no matter what.
  2177.  
  2178.      If the price fluctuations are large, it may well happen that
  2179.  
  2180. most retail customers buy bandwidth on a contract basis at a
  2181.  
  2182. fixed price.  But the fact that the spot market is available is
  2183.  
  2184. very important since it allows ``wholesale'' customers to buy
  2185.  
  2186. bandwidth on an ``as available'' basis, thereby encouraging
  2187.  
  2188. efficient use of bandwidth.
  2189.  
  2190.  
  2191. Short term price fluctuations
  2192.  
  2193.  
  2194. Another problem arises at the other end of the time scale. It is
  2195.  
  2196. widely observed that packet transfers are ``bursty.'' Traffic
  2197.  
  2198. on  the  network  fluctuations  quite  significantly  over  short
  2199.  
  2200. time periods.  Can a market price keep up with this kind of
  2201.  
  2202. fluctuation?
  2203.  
  2204.      We have two answers to this question.  First, it is very
  2205.  
  2206. easy  to  buffer  packets  for  short  time  intervals.   When  a
  2207.  
  2208.  
  2209.                                        38
  2210.  
  2211. high-priority/high-bid burst comes along, packets with low
  2212.  
  2213. priority  and  low  bid,  are  buffered.  After  the  high-priority
  2214.  
  2215. packets are admitted, the low-priority packets move onto the
  2216.  
  2217. network.  In network engineering this is known as priority-
  2218.  
  2219. based routing, and is a reasonably well-understood policy.
  2220.  
  2221.      The second answer is a bit deeper. We conjecture that if
  2222.  
  2223. usage were priced in the way we advocate, network traffic
  2224.  
  2225. would  be  a  lot  less  bursty.   Said  another  way:  bursts  in
  2226.  
  2227. network traffic are there now because there is no charge for
  2228.  
  2229. bursts. If bursts were costly to the user there would be fewer
  2230.  
  2231. of them.
  2232.  
  2233.      Of course, this is not only because the user would change
  2234.  
  2235. behavior---the  bursts  are  at  a  much  higher  frequency  than
  2236.  
  2237. the users control. Rather, the users would have an incentive
  2238.  
  2239. to use applications that smoothed the network traffic flow.
  2240.  
  2241. In countries where electricity is priced by time of day, water
  2242.  
  2243. heaters are smart enough to heat water in the middle of the
  2244.  
  2245. night when rates are low. If a refrigerator can be that smart,
  2246.  
  2247. think  what  a  workstation  could  do---if  it  know  the  right
  2248.  
  2249. prices.
  2250.  
  2251.  
  2252.  
  2253. Routing
  2254.  
  2255.  
  2256. As we have mentioned several times, the Internet is a connec-
  2257.  
  2258. tionless network. Each router knows the final destination of a
  2259.  
  2260. packet, and determines, from its routing tables, what the best
  2261.  
  2262. way is to get from the current location to the next location.
  2263.  
  2264. These routing tables are updated continuously to indicate the
  2265.  
  2266. current state of the network. Routing tables change to reflect
  2267.  
  2268. failed links and new nodes, but they do not change to reflect
  2269.  
  2270. congestion  on  various  links  of  the  network.  Indeed,  there
  2271.  
  2272.  
  2273.                                        39
  2274.  
  2275. is no standard measurement for congestion available on the
  2276.  
  2277. current NSFNET T-3 network.
  2278.  
  2279.      Currently, there is no prioritization of packets: all packets
  2280.  
  2281. follow the same route at a given time. However, if each packet
  2282.  
  2283. carried a bid price, as we have suggested, this information
  2284.  
  2285. could be used to facilitate routing through the Internet.  For
  2286.  
  2287. example, packets with higher bids could take faster routes,
  2288.  
  2289. while packets with lower bids could be routed through slower
  2290.  
  2291. links.
  2292.  
  2293.      The  routers  could  assign  access  prices  to  each  link  in
  2294.  
  2295. the net, so that only packets that were ``willing to pay'' for
  2296.  
  2297. access to that link would be given access.  Obviously this
  2298.  
  2299. description is very incomplete, but it seems likely that having
  2300.  
  2301. packets bid for access will help to distribute packets through
  2302.  
  2303. the network in a more efficient way.
  2304.  
  2305.  
  2306. Distributional aspects
  2307.  
  2308.  
  2309. As we mentioned earlier, the issue of pricing the Internet is
  2310.  
  2311. highly politicized. One nice feature of smart market pricing is
  2312.  
  2313. that low-priority access to the Internet (such as e-mail) would
  2314.  
  2315. continue  to  have  a  very  low  cost.   Indeed,  with  relatively
  2316.  
  2317. minor public subsidies to cover the marginal resource costs,
  2318.  
  2319. it would be possible to have efficient pricing with a price of
  2320.  
  2321. close to zero most of the time, since the network is usually
  2322.  
  2323. not congested.
  2324.  
  2325.      If there are several competing carriers, the usual logic of
  2326.  
  2327. competitive bidding suggests that the price for low-priority
  2328.  
  2329. packets should approach marginal cost---which, as we have
  2330.  
  2331. argued, is essentially zero. In the plan that we have outlined
  2332.  
  2333. the high priority users would end up paying most of the costs
  2334.  
  2335. of the Internet.
  2336.  
  2337.  
  2338.                                        40
  2339.  
  2340. Price uncertainty
  2341.  
  2342.  
  2343. Several readers have objected to the use of the smart market
  2344.  
  2345. since it adds an element of price uncertainty: the user won't
  2346.  
  2347. necessarily know the price for access to the network unless
  2348.  
  2349. he inquires beforehand.  We don't think that this would be
  2350.  
  2351. a big problem for several reasons.  First,  it is important to
  2352.  
  2353. remember  that  the  user  (or  the  application)  has  complete
  2354.  
  2355. control  over  the  maximum  price  that  he  or  she  is  willing
  2356.  
  2357. to pay.  Second, we imagine that there would be reasonably
  2358.  
  2359. predictable  patterns  in  usage  so  that  users  would  have  a
  2360.  
  2361. good  idea  when  congestion  is  likely  to  occur.   Third,  if
  2362.  
  2363. there is some uncertainty about the current price,  the user
  2364.  
  2365. could simply query the router.  Finally, we think that if the
  2366.  
  2367. congestion  prices  are  used  to  guide  investment  decisions,
  2368.  
  2369. the demand of the users and the supply of network capacity
  2370.  
  2371. should  be  closely  enough  matched  so  that  the  congestion
  2372.  
  2373. prices would normally be rather small.
  2374.  
  2375.      It is also worthwhile to note that the fluctuations in price
  2376.  
  2377. represent a real resource cost---congestion costs. If the user
  2378.  
  2379. doesn't bear that cost, then someone else will have to:  the
  2380.  
  2381. other users who find their packets delayed or dropped.  Of
  2382.  
  2383. course, there is no reason why the risk of price fluctuations
  2384.  
  2385. couldn't  be  borne  by  third-parties.   One  could  imagine  a
  2386.  
  2387. futures market for bandwidth in which third-parties offer to
  2388.  
  2389. absorb the risk of price fluctuations for a fee.
  2390.  
  2391.  
  2392.  
  2393. Interruptible service
  2394.  
  2395.  
  2396. Implementing the smart market mechanism for pricing con-
  2397.  
  2398. gestion on the Internet would involve adding new information
  2399.  
  2400. to the TCP/IP headers. It will take a considerable amount of
  2401.  
  2402.  
  2403.                                        41
  2404.  
  2405. discussion and debate to accomplish this. However, there is
  2406.  
  2407. a partial way to handle congestion pricing that requires very
  2408.  
  2409. little change in existing protocols.
  2410.  
  2411.      Suppose  that  providers  of  Internet  services  had  two
  2412.  
  2413. classes  of  service:   full  service  and  interruptible  service.
  2414.  
  2415. Users would pay a flat fee based on the size of their pipeline
  2416.  
  2417. for the type of service they preferred and full service would
  2418.  
  2419. cost more than interruptible service.
  2420.  
  2421.      When the load on the routers used by the Internet provider
  2422.  
  2423. reached a certain level, the users who had purchased inter-
  2424.  
  2425. ruptible service would be denied access until the congestion
  2426.  
  2427. subsided.   All  that  is  needed  to  implement  this  rationing
  2428.  
  2429. mechanism is a simple change to the routing algorithms.
  2430.  
  2431.      The  defect  of  interruptible  service  is  that  it  is  rather
  2432.  
  2433. inflexible compared to the smart market solution: it applies
  2434.  
  2435. to all participants in a single administrative billing unit and
  2436.  
  2437. cannot be overridden by individual users. On the other hand
  2438.  
  2439. it  is  very  simple  to  implement.   See  Wilson  (1989)  for  a
  2440.  
  2441. detailed study of the analytics of interruptible service.
  2442.  
  2443.  
  2444.  
  2445. 8.  Role of public and private sector
  2446.  
  2447.  
  2448. As  we  have  seen,  current  private  providers  of  access  to
  2449.  
  2450. the  Internet  generally  charge  for  the  ``size  of  the  pipe''
  2451.  
  2452. connecting users to the net.  This sort of pricing is probably
  2453.  
  2454. not too bad from an efficiency point of view since the ``size
  2455.  
  2456. of  the  pipe''  is  more-or-less  proportional  to  contemplated
  2457.  
  2458. peak usage.
  2459.  
  2460.      The  problem  is  that  there  is  no  pricing  for  access  to
  2461.  
  2462. the common backbone.  In December of 1992, the NSF an-
  2463.  
  2464. nounced that it would stop providing direct operation funding
  2465.  
  2466.  
  2467.                                        42
  2468.  
  2469. for the ANS T-3 Internet backbone. It is not yet clear when
  2470.  
  2471. this  will  actually  happen,  although  the  cooperative  agree-
  2472.  
  2473. ment  between  NSF  and  Merit  has  been  extended  through
  2474.  
  2475. April 1994. According to the solicitation for new proposals,
  2476.  
  2477. the NSF intends to create a new very high speed network
  2478.  
  2479. to  connect  the  supercomputer  centers  which  would  not  be
  2480.  
  2481. used for general purpose traffic. In addition, the NSF would
  2482.  
  2483. provide funding to regional networks that they could use to
  2484.  
  2485. pay for access to backbone networks like ANSnet,  PSInet
  2486.  
  2487. and Alternet.
  2488.  
  2489.      The  NSF  plan  is  moving  the  Internet  away  from  the
  2490.  
  2491. ``Interstate''  model,  and  towards  the  ``turnpike''  model.
  2492.  
  2493. The ``Interstate'' approach is for the government to develop
  2494.  
  2495. the ``electronic superhighways of the future'' as part of an
  2496.  
  2497. investment in infrastructure. The ``turnpike'' approach is that
  2498.  
  2499. the private sector should develop the network infrastructure
  2500.  
  2501. for Internet-like operations, with the government providing
  2502.  
  2503. subsidies to offset the cost of access to the private networks.
  2504.  
  2505.      Both funding models have their advantages and disad-
  2506.  
  2507. vantages.   But  we  think  that  an  intermediate  solution  is
  2508.  
  2509. necessary.  The private sector is probably more flexible and
  2510.  
  2511. responsive  than  a  government  bureaucracy.  However,  the
  2512.  
  2513. danger is that competing network standards would lead to an
  2514.  
  2515. electronic Tower of Babel. It is important to remember that
  2516.  
  2517. turnpikes have the same traffic regulations as the Interstates:
  2518.  
  2519. there  is  likely  a  role  for  the  government  in  coordinating
  2520.  
  2521. standards setting for network traffic. In particular, we think
  2522.  
  2523. that  it  makes  sense  for  the  government,  or  some  industry
  2524.  
  2525. consortium, to develop a coherent plan for pricing Internet
  2526.  
  2527. traffic at a packet level.34
  2528. _________________________________________
  2529.  34  One of the recent bills submitted by Representative Boucher to begin
  2530.  
  2531.  
  2532.  
  2533.                                        43
  2534.  
  2535.      It is worth remarking on the history of standards for voice
  2536.  
  2537. networks. U.S. voice communications are now provided by
  2538.  
  2539. a mesh of overlapping and connected networks operated by
  2540.  
  2541. multiple, competing providers (ATT, MCI and Sprint being
  2542.  
  2543. the largest). This is quite a bit like the situation we expect to
  2544.  
  2545. emerge for data networks. However, over the decades when
  2546.  
  2547. switching  and  billing  standards  were  being  designed  and
  2548.  
  2549. refined, the only significant provider was ATT, so it could
  2550.  
  2551. impose  a  single,  coordinated  standard  that  later  providers
  2552.  
  2553. accepted.   International  voice  networks,  by  contrast,  have
  2554.  
  2555. always required interconnection and traffic handoff between
  2556.  
  2557. various (mostly national) providers. Standards were designed
  2558.  
  2559. and imposed by a public body, the CCITT.
  2560.  
  2561.      A pricing standard has to be carefully designed to contain
  2562.  
  2563. enough  information  to  encourage  efficient  use  of  network
  2564.  
  2565. bandwidth,  as  well  as  containing  the  necessary  hooks  for
  2566.  
  2567. accounting and rebilling information.  A privatized network
  2568.  
  2569. is simply not viable without such standards, and work should
  2570.  
  2571. start immediately on developing them.
  2572.  
  2573.  
  2574. _________________________________________
  2575. implementing the NREN requires uniform protocols for interconnection
  2576. between providers. It is not clear whether the bill will also mandate uniform
  2577. standards for providing management information like accounting data.
  2578.  
  2579.  
  2580.  
  2581.                                        44
  2582.  
  2583. Appendix  1:   Some  analytics  of  pricing  a  congestible
  2584.  
  2585. resource
  2586.  
  2587.  
  2588.      The  classic  ``problem  of  the  commons''  describes  a
  2589.  
  2590. situation where property that is held in common will tend
  2591.  
  2592. to be overexploited.  Each user is aware of his private costs
  2593.  
  2594. incurred by accessing the common property but neglects the
  2595.  
  2596. costs he imposes on others. In the context of the Internet we
  2597.  
  2598. have seen that the scarce resource is the switching capacity
  2599.  
  2600. of  the  routers.  When  the  network  is  highly  congested,  an
  2601.  
  2602. additional  user  imposes  costs  on  other  users  to  the  extent
  2603.  
  2604. that his use of switching capacity prevents, or at least slows
  2605.  
  2606. down, the use of the same capacity by other users.
  2607.  
  2608.      Efficient use of the switch capacity requires that users
  2609.  
  2610. that are willing to pay more for access should be admitted
  2611.  
  2612. before  users  with  lower  willingness-to-pay.  The  price  for
  2613.  
  2614. admission to the switches should be that price that reflects
  2615.  
  2616. the social cost of an additional packet.
  2617.  
  2618.      Here  we  briefly  examine  some  of  the  analytics  of  a
  2619.  
  2620. standard  (static)  congestion  model.35    Arnott,  de  Palma,
  2621.  
  2622. and  Lindsey  (1990)  have  argued  strongly  that  congestion
  2623.  
  2624. models should examine dynamic microbehavior in a more
  2625.  
  2626. detailed  way  than  the  standard  model  does.  Although  we
  2627.  
  2628. agree  with  this  point,  and  think  that  modeling  congestion
  2629.  
  2630. behavior for computer networks is a promising avenue for
  2631.  
  2632. future research, we here consider only the simplest textbook
  2633.  
  2634. case of congestion.
  2635.  
  2636.      We suppose that a representative user has a utility func-
  2637.  
  2638. tion u(xi)-D, where xi is the number of packets sent by user
  2639. _________________________________________
  2640.  35  The treatment is intended for economists; it is probably too terse for
  2641. non-economists.
  2642.  
  2643.  
  2644.  
  2645.                                        45
  2646.  
  2647. i and D is the total delay experienced by the user. The delay
  2648.  
  2649. depends on the total utilization of the network, Y  = X=K
  2650.              P  n
  2651. where  X  =     i=1  xi  is  the  total  usage  and  K  is  network
  2652.  
  2653. capacity.36    This  specification  implies  that  if  usage  X  is
  2654.  
  2655. doubled and capacity K is doubled, then network utilization
  2656.  
  2657. Y  = X=K and delay D(Y ) remain the same.
  2658.  
  2659.      If there is no congestion-based pricing, user i will choose
  2660.  
  2661. xi to satisfy the first-order condition37
  2662.  
  2663.  
  2664.                                  u0(xi) = 0:
  2665.  
  2666.  
  2667. The efficient utilization of the network maximizes the sum
  2668.                          P   n
  2669. of all users' utilities,     i=1  u(xi) - nD(X=K).  This yields
  2670.  
  2671. the n first-order conditions
  2672.  
  2673.  
  2674.                          u0(xi) - _n__KD0(Y ) = 0:
  2675.  
  2676.  
  2677. One way to achieve this efficient outcome is to set a conges-
  2678.  
  2679. tion price per packet of
  2680.  
  2681.  
  2682.                                p =  n___KD0(Y );                            (1)
  2683.  
  2684.  
  2685. so that user i faces the maximization problem
  2686.  
  2687.  
  2688.                       maxx   u(xi) - D(Y )) - pxi:
  2689.                           i
  2690.  
  2691. The first-order condition to this problem is
  2692.  
  2693.  
  2694.                          u0(xi) = p =  n___KD0(Y )                          (2)
  2695.  
  2696.  
  2697. which is easily seen to lead to the optimal choice of xi. The
  2698.  
  2699. price has been chosen to measure the congestion costs that
  2700.  
  2701. i's packets impose on the other users.
  2702. _________________________________________
  2703.  36  We could also make the utility of packets depend on the delay by writing
  2704. utility as u(xi; D). We choose the additively separable specification only
  2705. for simplicity.
  2706.  
  2707.  37  We assume that the user ignores the fact that his own packets impose
  2708. delay on his own packets; we can think of this effect as being built into the
  2709. utility function already.  There is no problem in relaxing this assumption;
  2710. the calculations just become messier.
  2711.  
  2712.  
  2713.  
  2714.                                        46
  2715.  
  2716. Optimal capacity expansion
  2717.  
  2718.  
  2719. Suppose now that it costs c(K) for capacity K  and that we
  2720.  
  2721. currently have some historically given capacity. Should the
  2722.  
  2723. capacity be expanded? The welfare problem is
  2724.  
  2725.                           X n
  2726.             W (K) = maxK        u(xi) - nD(Y ) - c(K):
  2727.                            i=1
  2728.  
  2729.  
  2730. Since xi is already chosen so as to maximize this expression,
  2731.  
  2732. the envelope theorem implies that
  2733.  
  2734.  
  2735.  
  2736.                    W 0(K) = nD0(Y ) X____K2- c0(K):
  2737.  
  2738.  
  2739.  
  2740. Substituting from equation (1)
  2741.  
  2742.  
  2743.  
  2744.                         W 0(K) = p X___K- c0(K):                            (3)
  2745.  
  2746.  
  2747.  
  2748. Suppose  that  the  marginal  cost  of  capacity  expansion  is
  2749.  
  2750. a  constant,  cK    =  c0(K).    Then  we  see  that  W 0(K)  is
  2751.  
  2752. positive if and only if pX - cK  K  > 0.  That is, capacity
  2753.  
  2754. should expanded when the revenues from congestion fees
  2755.  
  2756. exceed the cost of providing the capacity.
  2757.  
  2758.  
  2759.  
  2760. A competitive market for network services
  2761.  
  2762.  
  2763. Suppose  that  there  are  several  competing  firms  providing
  2764.  
  2765. network  access.   A  typical  producer  has  a  network  with
  2766.  
  2767. capacity  K  and  carries  X  packets,  each  of  which  pays  a
  2768.  
  2769. packet  charge  of  p.   The  producer's  operating  profits  are
  2770.  
  2771. pX - c(K).
  2772.  
  2773.      Let p(D) be the price charged by a provider that offers
  2774.  
  2775. delay D. In general, if the delay on one network is different
  2776.  
  2777. than  on  another  the  price  will  have  to  reflect  this  quality
  2778.  
  2779.  
  2780.                                        47
  2781.  
  2782. difference. The utility maximization problem for consumer i
  2783.  
  2784. is to choose which network to use and how much to use it:
  2785.  
  2786.  
  2787.                        maxx   u(xi) - D - p(D)xi
  2788.                            i;D
  2789.  
  2790. which has first-order conditions
  2791.  
  2792.                             u0(xi) - p(D)       = 0
  2793.  
  2794.  
  2795.                             -1 - p0(D)xi        = 0:
  2796.  
  2797. The first equation says that each user will send packets until
  2798.  
  2799. the value of an additional packet equals its price. The second
  2800.  
  2801. equation  says  that  the  user  will  choose  a  network  with  a
  2802.  
  2803. level of delay that such that the marginal value to the user of
  2804.  
  2805. additional delay equals the marginal cost of paying for the
  2806.  
  2807. delay (by switching suppliers). Adding up this last first-order
  2808.  
  2809. condition over the consumers yields
  2810.  
  2811.  
  2812.                               n = -p0(D)X:                                  (4)
  2813.  
  2814.  
  2815.      A  competitive  producer  offering  delay  D(Y )  wants  to
  2816.  
  2817. choose capacity and price so as to maximize profits, recog-
  2818.  
  2819. nizing that if it changes its delay the price that it can charge
  2820.  
  2821. for access will change. The profit maximization problem is
  2822.  
  2823.  
  2824.                         maxX;K p(D(Y ))X - c(K);
  2825.  
  2826.  
  2827. which gives us first-order conditions
  2828.  
  2829.                          p0(D)D0(Y )Y  + p(D)          = 0
  2830.                                                                             (5)
  2831.                     -p0(D)D0(Y )Y 2 - c0(K)            = 0:
  2832.  
  2833. Combining these two conditions and using equation (4) gives
  2834.  
  2835. us two useful expressions for p(D):
  2836.  
  2837.  
  2838.                             p(D)    =  n___KD0(Y )
  2839.                                                     :
  2840.                                     = c0(K) K___X
  2841.  
  2842.  
  2843.                                        48
  2844.  
  2845. Comparing the first equation to (2) we see that the compet-
  2846.  
  2847. itive  price  will  result  in  the  optimal  degree  of  congestion.
  2848.  
  2849. Comparing the second equation to equation (3) we see that
  2850.  
  2851. competitive behavior will also result in optimal capacity.
  2852.  
  2853.  
  2854.  
  2855. Adding capacity
  2856.  
  2857.  
  2858. Suppose  now  that  a  competitive  firm  is  trying  to  decide
  2859.  
  2860. whether  to  add  additional  capacity  K.   We  consider  two
  2861.  
  2862. scenarios. In the first scenario, the firm contemplates keeping
  2863.  
  2864. X fixed and simply charging more for the reduction in delay.
  2865.  
  2866. The amount extra it can charge for each packet is
  2867.  
  2868.  
  2869.                     _dp__ K = -p0(D)D0(Y ) X____K:
  2870.                     dK                     K2
  2871.  
  2872.  
  2873. Using equation (5) this becomes
  2874.  
  2875.  
  2876.                                      _p__K:
  2877.                                      K
  2878.  
  2879.  
  2880. Since the firm can charge this amount for each packet sent,
  2881.  
  2882. the total additional revenue from this capacity expansion is
  2883.  
  2884.  
  2885.  
  2886.                                     p X___KK:
  2887.  
  2888.  
  2889.  
  2890. This revenue will cover the costs of expansion if
  2891.  
  2892.                                ~               ~
  2893.  
  2894.            p X___KK - c0(K)K =   p X___K- c0(K)     K   0;
  2895.  
  2896.  
  2897.  
  2898. which is precisely the condition for social optimality as given
  2899.  
  2900. in equation (3).
  2901.  
  2902.      Consider  now  the  second  scenario.   The  firm  expands
  2903.  
  2904. its  capacity  and  keeps  its  price  fixed.   In  a  competitive
  2905.  
  2906. market it will attract new customers due to the reduction in
  2907.  
  2908. delay.  In  equilibrium  this  firm  must  have  the  same  delay
  2909.  
  2910.  
  2911.                                        49
  2912.  
  2913. as other firms charging the same price.  Suppose that in the
  2914.  
  2915. initial equilibrium X=K  = Y .  Then the additional number
  2916.  
  2917. of  packets  sent  must  satisfy  X  =  Y K:  It  follows  that  the
  2918.  
  2919. increase in in profit for this firm is given by
  2920.  
  2921.                                ~               ~
  2922.  
  2923.                pY K - c0(K)K =   p X___K- c0(K)     K:
  2924.  
  2925.  
  2926.  
  2927. Again we see that capacity expansion is optimal if and only
  2928.  
  2929. if it increases profits.
  2930.  
  2931.      The relationship between capacity expansion and conges-
  2932.  
  2933. tion pricing was first recognized by Mohring and Hartwize
  2934.  
  2935. (1962) and Strotz (1978). Some recent general results can be
  2936.  
  2937. found in Arnott and Kraus (1992b, 1992a).
  2938.  
  2939.                                        50
  2940.  
  2941. Appendix  2:  An  hypothetical  one-node  backbone  with
  2942.  
  2943. smart market
  2944.  
  2945.  
  2946.      Implementing any pricing scheme for backbone services
  2947.  
  2948. will  require  changes  to  user  applications,  host  operating
  2949.  
  2950. systems,  and router algorithms.  Very little work has been
  2951.  
  2952. done  on  the  software  and  protocol  changes  necessary  to
  2953.  
  2954. support efficient pricing.38  To illustrate the types of changes
  2955.  
  2956. that  will  be  necessary,  we  shall  briefly  describe  how  our
  2957.  
  2958. smart market might be implemented in a very simple case.
  2959.  
  2960.      Consider a simple network fragment: two host machines,
  2961.  
  2962. each with multiple users, each connected to a separate local
  2963.  
  2964. area network.  The two LANs are connected by a backbone
  2965.  
  2966. with a single switch (which admittedly doesn't have much
  2967.  
  2968. work to do!).  Users have applications that send packets to
  2969.  
  2970. each other.  How would the smart market work if users are
  2971.  
  2972. sending each other a steady flow of packets that is sufficient
  2973.  
  2974. to cause congestion at the switch if all packets were admitted?
  2975.  
  2976.  
  2977.  
  2978. User application
  2979.  
  2980.  
  2981. Suppose user 1 on machine 1 (u11 ) is sending e-mail to user
  2982.  
  2983. 1 on machine 2 (u12 ).  u11  needs to be able to set her bid
  2984.  
  2985. (maximum willingness to pay) for the packets that make up
  2986.  
  2987. her e-mail message. However, she prefers not to think about
  2988.  
  2989. a bid for every message since she usually puts the same, very
  2990.  
  2991. low priority price on e-mail. Thus, the e-mail software needs
  2992.  
  2993. to provide hooks for a user to set a default bid price, and to
  2994.  
  2995. override the default when desired.
  2996. _________________________________________
  2997.  38  A draft technical report has proposed some semantics and a conceptual
  2998. model for network usage accounting, but this has not become a standard,
  2999. nor does it deal with billing or cost allocation; see C. Mills (1991).  See
  3000. Braun and Claffy (1993) for a detailed discussion of some of the problems
  3001. facing usage accounting.
  3002.  
  3003.  
  3004.  
  3005.                                        51
  3006.  
  3007. User system
  3008.  
  3009.  
  3010. The  host  machine  must  handle  some  new  tasks  through
  3011.  
  3012. systems software. First, the e-mail is packetized with one new
  3013.  
  3014. piece of information loaded into the header: the bid price.39
  3015.  
  3016. Also,  since  this  is  a  multiuser  machine  and  the  network
  3017.  
  3018. only recognizes machine (IP) addresses, not user names, the
  3019.  
  3020. host machine must create a record in an accounting database
  3021.  
  3022. that records the user name, number of packets sent, and the
  3023.  
  3024. packet identification number. It is not possible to record the
  3025.  
  3026. price for the packets yet because of the design of the smart
  3027.  
  3028. market: the user specifies her maximum willingness to pay,
  3029.  
  3030. but the actual price for each packet may (and typically will)
  3031.  
  3032. be lower.  However, since the TCP protocol offers positive
  3033.  
  3034. acknowledgement of each packet, the acknowledging packets
  3035.  
  3036. that are returned can contain the actual price charged so that
  3037.  
  3038. the host database can record user-specific charges.
  3039.  
  3040.  
  3041.  
  3042. Local area network
  3043.  
  3044.  
  3045. It may be desirable to implement some hooks in the local
  3046.  
  3047. organization  network,  before  the  packet  reaches  the  back-
  3048.  
  3049. bone.40    For  example,  organization  policy  may  want  to
  3050.  
  3051. impose a ceiling on bids to restrict the maximum price that
  3052.  
  3053. users  volunteer  to  pay.   Also,  billing  from  the  backbone
  3054.  
  3055. provider may be only to the organization level since the IP
  3056.  
  3057. address  of  host  machines  identifies  only  a  station,  not  the
  3058. _________________________________________
  3059.  39  It would be natural to use the priority field to contain the bid price.
  3060.  
  3061.  
  3062.  40  In  practice  there  may  be  several  levels  of  interconnected  network
  3063. between the user and the backbone: departmental, organization, regional,
  3064. national. What we say here about a single local network should generally
  3065. apply at each such level.
  3066.  
  3067.  
  3068.  
  3069.                                        52
  3070.  
  3071. responsible  users.  It  may  be  that  backbone  providers  will
  3072.  
  3073. provide bills that itemize by host IP address; the organization
  3074.  
  3075. may want to record packets sent by each host, as well as the
  3076.  
  3077. price extracted from the acknowledgement return.
  3078.  
  3079.      In this example we assume that the local network is not
  3080.  
  3081. imposing its own charges on top of the backbone charges. If
  3082.  
  3083. local pricing is desired to allocate locally congested resources
  3084.  
  3085. (as we suspect if often will be for large organizations), the
  3086.  
  3087. tasks identified below for the backbone must also be carried
  3088.  
  3089. out by the LAN.
  3090. Backbone
  3091.  
  3092.  
  3093. As  a  packet  reaches  the  backbone  router,  its  bid  price  is
  3094.  
  3095. compared to the current smart market price for admission. If
  3096.  
  3097. the bid is too low, a message (presumably implemented in
  3098.  
  3099. the ICMP protocol) is returned to the user with the packet
  3100.  
  3101. number, user's bid and the current price.  If the bid exceeds
  3102.  
  3103. the admission price, then the packet is admitted and routed.
  3104.  
  3105.      Every  packet  is  checked  for  its  bid,  but  to  control  the
  3106.  
  3107. transactions  costs  of  pricing,  accounting,  and  billing  we
  3108.  
  3109. assume that only 1 of every N packets is sampled for further
  3110.  
  3111. processing.  A  copy  of  the  header  of  the  sampled  packets
  3112.  
  3113. is diverted to a separate CPU, where it is used for several
  3114.  
  3115. functions.
  3116.  
  3117.      One task is to update the state of demand on the backbone.
  3118.  
  3119. Packets with bids come in over time; it will be necessary to
  3120.  
  3121. aggregate packets over some window (the width of which
  3122.  
  3123. could be time- or event-driven) to construct the ``current''
  3124.  
  3125. state of demand.  When a newly sampled packet arrives, it
  3126.  
  3127.  
  3128.                                        53
  3129.  
  3130. is  added  to  the  history  window  of  bids,  and  a  stale  bid  is
  3131.  
  3132. removed.41
  3133.  
  3134.      The sampled packet is logged to the accounting database:
  3135.  
  3136. the  current  price  times  N  (since  the  packet  represents  on
  3137.  
  3138. average  1=N th  of  those  sent  by  a  particular  user)  and  the
  3139.  
  3140. billing identification information. Periodically the backbone
  3141.  
  3142. provider will prepare and deliver bills.
  3143.  
  3144.      Periodically the smart market price would be recalculated
  3145.  
  3146. to  reflect  changes  in  the  state  of  demand.   A  new  price
  3147.  
  3148. might be event-driven (e.g., recalculated every time a new
  3149.  
  3150. N th packet arrives, or less frequently) or time-driven (e.g.,
  3151.  
  3152. recalculated  every  T  msecs).   The  new  price  would  then
  3153.  
  3154. be sent to the gatekeeper subsystem on the router, and in a
  3155.  
  3156. network with multiple nodes possibly broadcast to the other
  3157.  
  3158. nodes.42
  3159.  
  3160.  
  3161.  
  3162. ``Collect calls'': Pricing proxy server packets
  3163.  
  3164.  
  3165. We  have  assumed  so  far  that  the  originator  of  a  packet  is
  3166.  
  3167. the party to be billed.  Many of the most important Internet
  3168.  
  3169. services  involve  packets  that  are  sent  by  one  host  at  the
  3170.  
  3171. request  of  a  user  on  another  host.   For  example,  ftp  file
  3172.  
  3173. transfers  and  gopher  information  services  take  this  form;
  3174.  
  3175. these are currently the first and seventh largest sources of
  3176.  
  3177. bytes transferred on the NSFnet backbone (Braun and Claffy
  3178.  
  3179. (1993)).   Clearly  most  services  will  not  offer  to  pay  the
  3180.  
  3181. network charges for any and all user requests for data.  We
  3182. _________________________________________
  3183.  41  The market algorithm would account for the fact that each packet was
  3184. a representative for N other packets assumed to have the same bid.
  3185.  
  3186.  42  We comment below on some of the issues for implementing a smart
  3187. market in a multiple node environment.
  3188.  
  3189.  
  3190.  
  3191.                                        54
  3192.  
  3193. need something like collect calls, COD, or bill-to-recipient's-
  3194.  
  3195. account, or all of the above.
  3196.  
  3197.      There are at least two straightforward methods to charge
  3198.  
  3199. the  costs  back  to  the  responsible  party.   A  traditional  ap-
  3200.  
  3201. proach would have users obtain accounts and authorization
  3202.  
  3203. codes that permit the proxy server to use an external billing
  3204.  
  3205. system for charges incurred by user requests; this is the way
  3206.  
  3207. that  many  current  commercial  information  services  (e.g.,
  3208.  
  3209. Compuserve) are billed.
  3210.  
  3211.      However, the growth of the Internet has been fueled by
  3212.  
  3213. the vast proliferation of information services. It is implausible
  3214.  
  3215. to think that a user would be willing to obtain separate charge
  3216.  
  3217. accounts with every service; it would also be inefficient to
  3218.  
  3219. have the necessary credit and risk management duplicated by
  3220.  
  3221. every proxy server provider. A more advanced method that
  3222.  
  3223. fits in well with the scheme we have described is to allow for
  3224.  
  3225. billing directly back to the user's backbone usage account.
  3226.  
  3227.      To implement a system of bill-to-sender would require
  3228.  
  3229. some further work, however.  The user's application (client
  3230.  
  3231. software) would presumably have to allow the user to specify
  3232.  
  3233. a maximum price for an entire transaction which could be
  3234.  
  3235. included  in  the  request  for  service,  since  it  will  often  be
  3236.  
  3237. impossible to anticipate the number of packets that are being
  3238.  
  3239. requested.   The  server  could  then  send  the  packets  with
  3240.  
  3241. a  flag  set  in  the  packet  header  that  indicates  the  charges
  3242.  
  3243. are to be levied against the destination IP address,  not the
  3244.  
  3245. source.    However,  to  make  such  a  system  feasible  will
  3246.  
  3247. require authentication and authorization services. Otherwise,
  3248.  
  3249. unscrupulous  uses  could  send  out  packets  that  were  not
  3250.  
  3251. requested by the recipients but charge them to the destination
  3252.  
  3253.  
  3254.                                        55
  3255.  
  3256. address;  likewise  malicious  pranksters  could  modify  their
  3257.  
  3258. system software to generate forged requests for data that is
  3259.  
  3260. unwanted by but charged to another user.43
  3261.  
  3262.  
  3263. _________________________________________
  3264.  43  There may also be a way to steal network services by having them
  3265. billed to another user, but we haven't figured out how to do that yet.
  3266.  
  3267.  
  3268.  
  3269.                                        56
  3270.  
  3271.                                  References
  3272.  
  3273.  
  3274. Almquist, P. (1992). Type of service in the internet protocol
  3275.          suite. Tech. rep. RFC 1349, Network Working Group.
  3276.  
  3277. Anonymous (1986).  Stratacom, inc. introduces `packetized
  3278.          voice system'. Communications Week, 2.
  3279.  
  3280. Arnott, R., de Palma, A., and Lindsey, R. (1990). Economics
  3281.          of a bottleneck. Journal of Urban Economics, 27, 111-
  3282.          -130.
  3283.  
  3284. Arnott,  R.,  and  Kraus,  M.  (1992a).    Financing  capacity
  3285.          on the bottleneck model.  Tech. rep.,  Department of
  3286.          Economics, Boston College.
  3287.  
  3288. Arnott,  R.,  and  Kraus,  M.  (1992b).     Self-financing  of
  3289.          congestible facilities in a dynamic environment. Tech.
  3290.          rep., Economics Department, Boston College.
  3291.  
  3292. Braun, H.-W., and Claffy, K. (1993).   Network analysis in
  3293.          support  of  internet  policy  requirements.   Tech.  rep.,
  3294.          San Diego Supercomputer Center.
  3295.  
  3296. C.  Mills,  D.  Hirsh,  G.  R.  (1991).     Internet  accounting:
  3297.          Background. Tech. rep. RFC 1272, Network Working
  3298.          Group.
  3299.  
  3300. Cerf,  V.  G.  (1993).    Core  protocols.   In  Internet  System
  3301.          Handbook. Addison Wesley, Reading, MA.
  3302.  
  3303. Claffy,  K.  C.,  Polyzos,  G.  C.,  and  Braun,  H.-W.  (1992).
  3304.          Traffic characteristics of the t1 nsfnet backbone. Tech.
  3305.          rep. CS92-252, UCSD.  Available via Merit gopher in
  3306.          Introducing the Internet directory.
  3307.  
  3308. Cocchi,  R.,  Estrin,  D.,  Shenker,  S.,  and Zhang,  L. (1992).
  3309.          Pricing in computer networks:  Motivation,  formula-
  3310.          tion, and example.  Tech. rep., University of Southern
  3311.          California.
  3312.  
  3313. Estrin,  D.  (1989).   Policy  requirements  for  inter  adminis-
  3314.          trative  domain  routing.   Tech.  rep.  RFC1125,  USC
  3315.          Computer Science Department.
  3316.  
  3317. Faulhaber,  G.  R.  (1992).    Pricing  Internet:  The  efficient
  3318.          subsidy.   In  Kahin,  B.  (Ed.),  Building  Information
  3319.          Infrastructure. McGraw-Hill Primis.
  3320.  
  3321. Gerla, M., and Kleinrock, L. (1988).  Congestion control in
  3322.          interconnected lans. IEEE Network, 2(1), 72--76.
  3323.  
  3324.  
  3325.                                        57
  3326.  
  3327. Huber, P. W. (1987).  The Geodesic Network: 1987 Report
  3328.          on Competition in the Telephone Industry. U.S. Gov't
  3329.          Printing Office, Washington, DC.
  3330.  
  3331. K. Claffy, H.-W. B., and Polyzos, G. (1993). Application of
  3332.          sampling methodologies to wide-area network traffic
  3333.          characterization.  Tech. rep. Technical Report CS93-
  3334.          275, UCSD.
  3335.  
  3336. Kahin, B. (1992).  Overview: Understanding the NREN.  In
  3337.          Kahin, B. (Ed.), Building Information Infrastructure.
  3338.          McGraw-Hill Primis, NY.
  3339.  
  3340. Kleinrock,  L.  (1992).     Technology  issues  in  the  design
  3341.          of NREN.  In Kahin,  B. (Ed.),  Building Information
  3342.          Infrastructure. McGraw-Hill Primis.
  3343.  
  3344. Krol, E. (1992). The Whole Internet. O'Reilly & Associates,
  3345.          Inc., Sebastopol, CA.
  3346.  
  3347. MacKie-Mason, J., and Varian, H. (1993). Some economics
  3348.          of the internet. Tech. rep., University of Michigan.
  3349.  
  3350. Mohring, H., and Hartwize, M. (1962).  Highway Benefits:
  3351.          An  Analytical  Approach.    Northwestern  University
  3352.          Press, Evanston.
  3353.  
  3354. Postel,  J.  (1981).   Darpa  internet  program  protocol  speci-
  3355.          fication.  Tech.  rep.  RFC  791,  Information  Sciences
  3356.          Institute, University of Southern California.
  3357.  
  3358. Prue,  W.,  and  Postel,  J.  (1988).   A  queuing  algorithm  to
  3359.          provide type-of-service for ip links.  Tech. rep. RFC
  3360.          1046, USC Information Sciences Institute.
  3361.  
  3362. Roberts, L. G. (1974).  Data by the packet.  IEEE Spectrum,
  3363.          XX, 46--51.
  3364.  
  3365. Ruth, G., and Mills, C. (1992).  Usage-based cost recovery
  3366.          in internetworks.  Business Communications Review,
  3367.          xx, 38--42.
  3368.  
  3369. Shenker, S. (1993).  Service models and pricing policies for
  3370.          an integrated services internet.  Tech. rep., Palo Alto
  3371.          Research Center, Xerox Corporation.
  3372.  
  3373. Smarr, L. L., and Catlett, C. E. (1992).  Life after Internet:
  3374.          Making room for new applications. In Kahin, B. (Ed.),
  3375.          Building  Information  Infrastructure.    McGraw-Hill
  3376.          Primis.
  3377.  
  3378.  
  3379.  
  3380.                                        58
  3381.  
  3382. Strotz, R. (1978). Urban transportation parables. In Margolis,
  3383.          J. (Ed.), The Public Economy of Urban Communities.
  3384.          Resources for the Future, Washington, D.C.
  3385.  
  3386. Waldspurger, C. A., Hogg, T., Huberman, B. A., Kephart,
  3387.          J.  O.,  and  Stornetta,  W.  S.  (1992).   Spawn:  A  dis-
  3388.          tributed computational economy.  IEEE Transactions
  3389.          on Software Engineering, 18(2), 103--117.
  3390.  
  3391. Wilson,  R.  (1989).    Efficient  and  competitive  rationing.
  3392.          Econometrica, 57(1), 1--40.
  3393.  
  3394.  
  3395.  
  3396.                                        59
  3397.  
  3398.  
  3399.  
  3400.  
  3401.  
  3402.  
  3403. -----------------------------------------------------------------------
  3404.  
  3405.      This file passed through SEA OF NOISE, +1 203 886 1441...
  3406.  
  3407.                           SHARE & ENJOY!
  3408.  
  3409. -----------------------------------------------------------------------
  3410.  
  3411.